楼主: 何人来此
1446 34

[量化金融] 百慕大期权定价的神经网络回归 [推广有奖]

21
大多数88 在职认证  发表于 2022-6-24 09:31:30
神经网络越大(尤其是L=8的情况),我们需要确保拟合过程充分收敛的时间就越多,以便充分利用网络的能力来准确逼近条件期望。请注意,增加网络的大小也会增加算法的总体方差,就像在多项式回归的情况下,当回归基础的大小增加时一样(有关详细信息,请参见Glasserman和Yu[2004])。5.1.2 Black-Scholes模型中的几何篮子期权对高维产品的新方法进行基准测试变得几乎不可行,因为几乎没有高维百慕大期权可以在合理的时间内准确定价。一个例外是带收益(K)的几何看跌期权- (Qdj=1Sjt)1/d)+。简单的计算表明,这种d-标注选项等于1-具有以下参数的尺寸选项^S=dYj=1Sj!1/d;^σ=d√σtΓσ;^δ=ddXj=1δj+(σj)-(^σ).在几何篮子期权的每次数值实验中,我们报告了由CRR树方法Cox et al.(1979)获得的等效一维百慕大期权的价格,该方法具有100000个离散化时间步。L dlepochs=1个时代=5个时代=102 32 4.55(±0.038)4.56(±0.041)4.56(±0.031)2 128 4.55(±0.032)4.56(±0.04)4.56(±0.038)2 512 4.54(±0.04)4.55(±0.033)4.55(±0.041)4 32 4.52(±0.044)4.54(±0.04)4.55(±0.036)4 128 4.52(±0.04)044)4.54(±0.033)4.55(±0.041)4 512 4.5(±0.046)4.54(±0.042)4.54(±0.045)8 32 4.52(±0.043)4.54(±0.049)4.55(±0.052)8128 4.51(±0.046)4.53(±0.045)4.54(±0.045)8 512 4.47(±0.181)4.51(±0.051)4.52(±0.149)表2:参数为d=2、Si=100、σi=0.2、ρ=0、δj=0.2、T=1、r=0.05、K=100、N=10和M=100000的几何篮子看跌期权的价格。

22
可人4 在职认证  发表于 2022-6-24 09:31:33
实际价格为4.57(所有数字都很重要)。从表2的数值结果可以看出,即使是一个小的神经网络也能够很好地捕捉连续值。增加网络规模无助于获得更好的价格,但会增加差异,除非我们通过多次查看数据来确保网络的精确性(例如,请参见列epochs=10),这反过来会导致更大的计算成本。相比之下,采用1、3和6阶多项式回归的标准Longstaff-Schwartz算法得出的价格分别为4.47±0.015、4.56±0.02和4.57±0.017。在这个小维度的例子中,一个低阶多项式和一个小的神经网络给出了一个非常准确的价格。L dlepochs=1个时代=5个时代=102 32 2.91(±0.027)2.92(±0.023)2.93(±0.019)2 128 2.91(±0.025)2.93(±0.021)2.94(±0.024)2 512 2.9(±0.025)2.93(±0.023)2.94(±0.027)4 32 2.9(±0.027)2.92(±0.029)2.94(±0.021)4 128 2.9(±0.021)±0.033)2.92(±0.023)2.93(±0.027)4 512 2.89(±0.028)2.91(±0.033)2.93(±0.033)8 32 2.9(±0.02)2.92(±0.029)2.94(±0.024)8 1282.9(±0.036)2.92(±0.026)2.94(±0.026)8 512 2.88(±0.042)2.91(±0.033)2.92(±0.034)表3:参数为d=10、Si=100、σi=0.2、ρ=0.2、δj=0、T=1、r=0.05、K=100、n=10和M=100000的几何篮子看跌期权的价格。实际价格为2.92。10的数值结果-多维几何看跌期权(见表3)表现出与低维问题相同的行为。使用一个小的神经网络可以在实际价格的0.1%范围内提供非常准确的结果。通过多次传递数据来训练网络有助于稍微减少价格估计器的偏差,但代价是计算量要高得多。

23
能者818 在职认证  发表于 2022-6-24 09:31:36
相比之下,采用1阶和3阶多项式回归的标准Longstaff-Schwartz算法得到的价格分别为2.86±0.014和2.96±0.014。请注意,在维度10中无法实现顺序6的回归。与所有其他示例不同,标准Longstaff-Schwartz算法和多项式回归往往表现出非对称负偏差,在本示例中,增加多项式次数会产生高于真实值的价格。请注意,真实价格始终在表3中报告的置信区间内。我们的方法似乎没有受到这种正偏差现象的影响。L dlepochs=1个时代=5个时代=102 128 2.52(±0.025)2.57(±0.019)2.61(±0.021)2 256 2.51(±0.027)2.57(±0.018)2.61(±0.017)2 512 2.5(±0.011)2.56(±0.021)2.61(±0.023)4 128 2.51(±0.03)2.59(±0.023)2.78(±0.045)4 256 2.51(±0.023).031)2.57(±0.018)2.75(±0.023)4 512 2.49(±0.02)2.55(±0.025)2.65(±0.035)8 128 2.51(±0.018)2.58(±0.022)2.76(±0.051)8 256 2.51(±0.026)2.57(±0.021)2.75(±0.038)8 512 2.46(±0.135)2.56(±0.021)2.65(±0.056)表4:参数为d=40、Si=100、σi=0.2、ρ=0.2、δj=0、T=1、r=0.5、K=100、n=10和M=100000的几何篮子看跌期权的价格。

24
可人4 在职认证  发表于 2022-6-24 09:31:40
实际价格为2.52。最后,我们在40-尺寸几何篮子选项,带两个difL dlepochs=1个时代=5个时代=102 128 2.5(±0.008)2.52(±0.005)2.52(±0.005)2 256 2.5(±0.012)2.52(±0.005)2.52(±0.01)2 512 2.49(±0.015)2.51(±0.007)2.52(±0.009)4 128 2.5(±0.006)2.52(±0.006)2.53(±0.003)4 256 2.5(±0.009)2.51(±0.007)2.52(±0.005)4 512 2.49(±0.008)2.51(±0.011)2.52(±0.014)8 1282.5(±0.007)2.53(±0.011)2.54(±0.008)8 256 2.49(±0.012)2.52(±0.011)2.53(±0.007)8 512 2.46(±0.154)2.49(±0.053)2.51(±0.015)表5:参数为d=40,Si=100,σi=0.2,ρ=0.2,δj=0,T=1,r=0.5,K=100,n=10,M=10的几何篮子认沽期权的价格1000000。真正的价格是2.52个不同数量的蒙特卡罗样本M=100000(表4)和M=1000000(表5)。在这两种情况下,使用非常小的神经网络(L=2)得到的结果已经非常精确。然而,有人应该注意到,增加M=100000的时代数会导致价格偏高。这是神经网络校准过程中过度拟合现象的结果。请记住,网络的参数数为(1+d)(1+dl)+(dl)2(L-2).对于L=4和dl=128,它已经给出了2600多万个参数。网络的学习能力使得它也可以学习数据中的噪声。如表5.5.1.3所示,增加数据集的大小(M=1000000)可以解决这个问题。看跌期权我们考虑带回报的看跌期权-dXi=1ωiSiT!+。我们在维度5中测试了我们的算法,并在表6中报告了结果。对于3阶(分别为1)多项式回归,标准LongstaffSchwartz算法产生3.11±0.01(分别为3.05±0.01)。表6中报告的价格与订单3多项式回归得出的价格非常接近。

25
何人来此 在职认证  发表于 2022-6-24 09:31:43
我们可以看到,使用具有多个隐藏层和每层数百个神经元的大型神经网络并没有真正的帮助。对于包含几十个神经元的asmall网络,得到的结果已经非常好了。1个时代和10个时代的结果之间的差异大约是置信区间宽度的一半,这使得SIT没有意义。因此,花更多的计算精力多次遍历所有数据集是没有用的。现在,我们转向一个高维问题,考虑一个拥有40项资产的篮子上的看涨期权,以测试我们的方法的可伸缩性。表7中报告了M=100000蒙特卡罗样本的结果,表8中报告了M=1000000蒙特卡罗样本的结果。当aL dlepochs=1个时代=5个时代=102 32 3.08(±0.023)3.09(±0.023)3.1(±0.028)2 128 3.08(±0.024)3.09(±0.024)3.1(±0.027)2 512 3.08(±0.032)3.09(±0.023)3.09(±0.03)4 32 3.07(±0.032)3.09(±0.031)3.1(±0.027)4 128 3.07(±0±0.03)3.09(±0.027)3.09(±0.027)4 512 3.06(±0.038)3.08(±0.031)3.09(±0.03)8 32 3.07(±0.032)3.09(±0.028)3.09(±0.033)8128 3.06(±0.035)3.08(±0.026)3.1(±0.027)8 512 3.06(±0.053)3.07(±0.053)3.08(±0.038)表6:d=5、r=0.05、T=1、σi=0.2、ωi=1/d、Si=100、ρ=0.2、K=100、N=10和M=100000的篮子选项。相比之下,Goudenège等人【2019年】报告的同一选项的价格介于2.15和2.22之间。我们的价格就在这段时间内。我们注意到,对于数量相对较少的蒙特卡罗样本M=100000,增加历元数可以得到更高的价格。

26
何人来此 在职认证  发表于 2022-6-24 09:31:46
由于神经网络的规模很大,这一点更加引人注目,这显然表现出一种过度拟合现象。事实上,将样本数量增加到M=1000000可以解决这个问题,因为对于所有神经网络配置,表8中的价格在2.14到2.18之间,POCH的数量最多为10。这清楚地表明,为了避免上偏差,我们需要在问题规模增大时增加样本数,这已经在使用多项式回归的standardLongstaff-Schwhartz算法中注意到了。

27
能者818 在职认证  发表于 2022-6-24 09:31:50
通过这个例子,我们得出了与40-第5.1.2节研究的尺寸几何篮子选项。L dlepochs=1个时代=5个时代=102 32 2.15(±0.018)2.19(±0.019)2.21(±0.02)2 128 2.16(±0.016)2.21(±0.015)2.25(±0.021)2 512 2.15(±0.017)2.21(±0.014)2.26(±0.017)4 32 2.16(±0.018)2.21(±0.015)2.26(±0.017)4 128 2.16(±0.018)0.021)2.24(±0.024)2.43(±0.026)4 512 2.15(±0.018)2.2(±0.025)2.31(±0.026)8 32 2.17(±0.028)2.21(±0.02)2.28(±0.023)8128 2.16(±0.026)2.24(±0.025)2.41(±0.032)8 512 2.14(±0.064)2.19(±0.031)2.29(±0.044)表7:d=40、r=0.05、T=1、σi=0.2、ωi=1/d、Si=100、ρ=0.2、K=100、N=10和M=100000的篮子选项。L dlepochs=1个时代=5个时代=102 32 2.16(±0.008)2.17(±0.008)2.18(±0.009)2 128 2.16(±0.009)2.17(±0.008)2.17(±0.007)2 512 2.15(±0.01)2.17(±0.007)2.17(±0.005)4 32 2.17(±0.008)2.17(±0.008)2.18(±0.007)4 128 2.16(±0.012)2.17(±0.008)2.18(±0.007)4 512 2.15(±0.014)2.16(±0.01)2.16(±0.01)8 32 2.16(±0.011)2.18(±0.009)2.18(±0.006)8128 2.16(±0.015)2.17(±0.007)2.18(±0.007)8 512 2.14(±0.022)2.15(±0.056)2.16(±0.015)表8:d=40、r=0.05、T=1、σi=0.2、ωi=1/d、Si=100、ρ=0.2、K=100、N=10和M=1000、000的篮子期权。5.1.4在Black-Scholes模型中,我们考虑在有报酬Black-Scholes模型中d资产的最大值最大值=1,。。。,dSiT- K+.Becker等人【2019a】、Goudenège等人选择了不同的参数集。

28
何人来此 在职认证  发表于 2022-6-24 09:31:54
【2019年】轻松比较不同方法获得的价格。L dlepochs=1个时代=5个时代=102 32 25.97(±0.117)25.95(±0.141)25.94(±0.133)2 128 25.95(±0.11)25.95(±0.126)26.02(±0.113)2 512 25.92(±0.104)25.96(±0.116)26.01(±0.153)4 32 25.83(±0.132)25.97(±0.146)26.02(±0.139)4 128 25.76(±0.203)25.91(±0.132)162)25.99(±0.162)4 512 25.63(±0.238)25.85(±0.181)25.94(±0.146)8 32 25.72(±0.185)25.91(±0.134)25.96(±0.169)8 128 25.61(±0.251)25.84(±0.186)25.93(±0.143)8 512 25.49(±0.265)25.76(±0.223)25.83(±0.2)表9:参数Sj=100、T=3、r=0.05、K=100、ρ=0、σj=0.2、δj=0.1、N=9和M=100000的最多5种资产的看涨期权价格。由于最大函数的强非线性,对一篮子资产中的最大值进行看涨期权定价通常比标准篮子期权困难得多。以表9为例,对于1、3和6阶多项式回归,标准Longstaff-Schwartz算法分别得出25.34±0.06、25.98±0.05、26.29±0.04。多项式回归得到的价格随回归程度的不同而变化很大。就本例而言,Beckeret等人[2019a]报告的95%置信区间为[26.14,26.17]。表9中报告的价格非常接近该置信区间。一个小的神经网络(L=2)使我们能够获得实际价格1%以内的值,考虑到产品的复杂性和近似值的小规模,这是一个巨大的成就。与其他示例一样,通过数据使用几个过程来训练神经网络并不能真正改善小型神经网络。对于较大的网络,这有一点帮助,但最终较大的网络不如较小的网络准确。为了充分利用大型神经网络,我们需要更多的数据来训练网络。

29
何人来此 在职认证  发表于 2022-6-24 09:31:58
更多蒙特卡罗样本,正如我们已经观察到的高维几何看跌期权。L dlepochs=1个时代=5个时代=102 128 68.99(±0.179)69.26(±0.164)69.42(±0.169)2 256 69.07(±0.149)69.42(±0.125)69.45(±0.138)2 512 69.11(±0.194)69.43(±0.18)69.51(±0.167)4 128 68.91(±0.365)69.29(±0.334)69.55(±0.339)4 256 68.72(±0.358)69.24(±0.341)69.5(±0.369)4 512 68.54(±0.548)69.17(±0.356)69.34(±0.359)8 128 68.59(±0.613)69.32(±0.348)69.71(±0.497)8 256 68.57(±0.797)69.25(±0.564)69.4(±0.484)8 512 68.32(±1.444)69.01(±0.738)69.49(±0.487)表10:参数Sj=100、T=3、r=0.05、K=100、ρ=0、σj=0.2、δj=0.1、N=9和M=100000的最大50项资产的看涨期权价格。L dlepochs=1个时代=5个时代=102 128 68.85(±0.074)68.96(±0.095)69.01(±0.119)2 256 68.87(±0.1)69.0(±0.143)69.07(±0.146)2 512 68.82(±0.082)69.05(±0.128)69.19(±0.136)4 128 68.84(±0.221)69.28(±0.153)69.41(±0.211)4 256 68.75(±0.342)69.14(±0.296)69.38(±0.342)4 512 68.7(±0.426)69.05(±0.317)69.35(±0.254)8 128 68.81(±0.277)69.28(±0.291)69.64(±0.22)8 256 68.57(±0.512)69.34(±0.378)69.65(±0.414)表11:参数为Sj=100、T=3、r=0.05、K=100、ρ=0、σj=0.2、δj=0.1、N=9和M=1000000的最大50项资产的看涨期权价格。我们在一个50-dimensional max看涨期权。表10中报告了M=100000的结果,表11中报告了M=1000000的结果。Becker等人[2019a]报告[69.56,69.95]为期权价格的95%置信区间。我们得到的价格与这些值非常接近。作为比较,对于一阶和二阶多项式回归,标准Longstaff-Schwartz算法分别得出67.96±0.02和69.02±0.02。三阶回归是遥不可及的。

30
kedemingshi 在职认证  发表于 2022-6-24 09:32:02
我们的深度学习方法比标准多项式回归方法更具可伸缩性。增加历代的数量可以改善结果,这意味着神经网络必须比目前研究的其他示例更加精确。5.2赫斯顿模型中的看跌期权我们认为DST=St(rtdt)定义的赫斯顿模型+√σt(ρdWt+p1- ρdWt))dσt=κ(θ- σt)dt+ξ√σtdWt。对于模型的模拟,我们使用了一种每年30个时间步的修正欧拉格式,其中我们替换了√σtbyp(σt)+处理离散化波动过程中可能出现的负值。对于表12的选项,标准Longstaff-Schwartz算法对一个6阶(分别为1)多项式回归的精度为1.70±0.008(分别为1.675±0.005)。与其他示例一样,使用神经网络作为回归器可以提供非常精确的结果,即使使用aquite小型网络(没有隐藏层和很少的神经元,请参见L=2和dl=32的情况)。L dlepochs=1个时代=5个时代=102 32 1.69(±0.017)1.7(±0.017)1.7(±0.016)2 128 1.69(±0.017)1.7(±0.019)1.7(±0.019)2 512 1.69(±0.019)1.69(±0.019)1.69(±0.018)4 32 1.69(±0.022)1.69(±0.017)1.7(±0.018)4 128 1.69(±0.018)±0.024)1.69(±0.02)1.7(±0.016)4 512 1.68(±0.025)1.69(±0.022)1.69(±0.022)8 32 1.69(±0.023)1.69(±0.02)1.69(±0.019)8 1281.68(±0.03)1.69(±0.022)1.69(±0.02)8 512 1.68(±0.03)1.68(±0.041)1.68(±0.053)表12:赫斯顿模型中参数为S=K=100,T=1,σ=0.01,ξ=0.2,θ=0.01,κ=2,ρ=-0.3,r=0.1,N=10,m=100000。6结论百慕大期权定价的困难来自于每个行权日的续值近似值。虽然多项式回归广泛用于此步骤,但我们已经研究了深度学习的使用。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-2-3 11:08