楼主: 可人4
1608 35

[量化金融] 响应面排序的深度学习及其在优化中的应用 [推广有奖]

21
可人4 在职认证  发表于 2022-6-11 09:43:11
通过将图8与图9(b)(d)进行比较,也可以将其可视化。3.3十维示例为了说明深度学习算法的稳健性,我们在本节中考虑了一个十维综合示例,对于该示例,使用我们之前工作中的方法[33]将存在计算时间不稳定的问题。为了便于比较,我们构建了如下示例,可以访问真正的C类。设L=3个曲面,X=[-1,1]d,d=10。我们使用的曲面包括嵌入的Hartmann 6-D函数、重新缩放的Styblinski-Tang函数和重新缩放的Trid函数,如表4所示。哈特曼6-D函数有6个局部极小值和一个全局极小值atx*= (0.20169, 0.150011, 0.476874, 0.275332, 0.311652, 0.6573).我们将此函数嵌入到十维空间中,作为我们的u(x)。原始Styblinski Tang函数f(x)=Pdi=1xi- 16xi+5XI通常在[-5,5]数据,全局最小atx*= (-2.903534, . . . , -2.903534). 我们重新缩放域和函数,使其与Hartmann 6相比较。这同样适用于Trid函数。我们使用干净数据和噪声数据训练的不同层次的神经网络来研究该示例,并在表5中给出了训练和泛化精度,其中第一个数字是训练精度,第二个括号中是泛化精度。我们注意到,与之前的1-D和2-D示例类似,当使用干净的数据对神经网络进行训练时,训练精度优于泛化精度,如图8所示:预测的X=[-2,2]使用UNet。黑色实线是真实的分类C(x,x),彩色区域表示使用M=576训练数据估计的最小指数。在标准的深度学习理论中,当神经网络被噪声数据训练时,其泛化精度更好。

22
何人来此 在职认证  发表于 2022-6-11 09:43:15
这是因为,当训练数据集中存在错误(由噪声引起)时,NNs会自动检测这些错误并避免从中学习,这会降低训练的“准确性”,而使用的泛化数据集只包含干净的数据。4百慕大期权定价计算金融中的一个重要问题是百慕大/美式期权的定价。文献中对其进行了广泛的研究,例如,通过回归方法[13、42、56、37、5、40、22、20]和方差缩减[35、31、34]、原始-对偶公式[2、10、6]、最佳停止的适应性实验设计[24、43]和反结果[46],列举了一些。对于百慕大型期权,买方有权在设定的次数行使。假设它们是离散间隔的,用{t=0,t,t,…,tN表示-1,tN=T}在成熟日期T的范围内,价格由所有可能ti的最大预期收益决定。为了最大化(或优化)买方利益,我们希望根据目前已知的信息,以能够收到最大回报的方式执行/停止期权。因此,这可以表述为一个最优停止问题,通常通过反向归纳法来解决。换言之,首先计算到期日的值函数,然后递归向后,计算值函数并决定是否在之前的期间执行。在每个可能的执行时间ti,决策空间都很小,只包含两个元素L={stop,continue},这使得它成为排序问题的自然应用。因此,在本节中,我们将应用深度学习算法对百慕大型期权进行定价。让Xt∈ 十、 Rdbe为标的资产价格,Fn=σ(Xt0:n)为σ-由(Xti)ni=1和S生成的代数是所有(Fn)停止时间的集合。

23
何人来此 在职认证  发表于 2022-6-11 09:43:19
然后,百慕大期权的定价本质上是在所有停车时间τ内最大化预期回报h(τ,Xτ)∈ S、 从数学上讲,用V(t,x)表示该期权在时间t的当前价格(a)按UNIF预测的分类(b)按UNIF+NL预测的分类(c)按SD预测的分类(d)按SD+NL预测的分类图9:预测的x上的二维排名=[-2,2]使用不同的设计:UNIF(左上)、UNIF+NL(右上)、SD(左下)和SD+NL(右下)。实心黑线表示真实的C(x,x),彩色区域表示M=576的估计分类系数。Xt=x:V(t,x):=supτ≥t、 τ∈集合,x【h(τ,xτ)】,价格由V(0,x)给出。通过动态规划,V(ti,x)=max{h(ti,x),CV(ti,x)},其中CV(ti,x)是连续值,对应于L中的“继续”动作:CV(ti,x):=Eti,x[V(ti+1,Xti+1)],(4.1)和h(ti,x)是与L中的“停止”动作相关的在ti处行使期权的即时回报。用τ表示*(t,x)达到最大值时的停止时间,由{τ}确定*(ti,x)=ti}={x∈ X:h(ti,X)≥ CV(ti,x)}。使用上述公式,可以估计τ*从TNT递归到t。根据我们的排名问题设置,对时间ti进行重新表述,“停止”或“继续”之间的选择相当于发现C(ti,x):=arg max{ustop(ti,x),ucont(ti,x)}over x,延续和停止区域之间的输入空间分段。

24
kedemingshi 在职认证  发表于 2022-6-11 09:43:23
此处ustop=h可在表4中测量:十维示例中的三个响应面函数。表面响应Hartmann 6-Du(x)=-Pi=1αiexp-Pj=1Aij(xj- Pij),与α=1.23.03.2, A=10 3 17 3.50 1.7 80.05 10 17 0.1 8 143 3.5 1.7 10 17 817 8 0.05 10 0.1 14,P=0.1312 0.1696 0.5569 0.0124 0.8283 0.58860.2329 0.4135 0.8307 0.3736 0.1004 0.99910.2348 0.1451 0.3522 0.2883 0.3047 0.66500.4047 0.8828 0.8732 0.5743 0.1091 0.0381;Styblinski Tangu(x)=2dPdi=1625xi- 400xi+25xi;Tridu(x)=Pdi=1(xi- 1) d-Pdi=2xixi-1.- 表5:使用干净数据和噪声数据训练的不同神经网络层(NNs)的10-D示例的训练精度与泛化精度。第一个数字是训练精度,括号内的第二个数字是泛化精度。请注意,当使用cleandata训练NNs时,训练精度优于预期的泛化精度,而当使用含噪数据训练NNs时,泛化精度更好。这是因为,当训练数据集中存在错误(由噪声引起)时,NNs会自动检测这些错误并避免从中学习,这会降低训练的“准确性”,而使用的泛化数据集只包含干净的数据。噪声级/#第2层、第3层、第4层无噪声92.5%(92.1%)、94.8%(93.9%)、94.5%(92.7%)σ=[0.5、0.4、0.45]90.5%(91.1%)、91.8%(91.8%)、93.1%(92.4%)σ=[0.7、0.75、0.8]89.6%(91.4%)、91.0%(92.9%)、91.6%(92.1%)进行确定性评估,而ucont=CVC的封闭式公式通常不可用,但可通过模拟获得。此外,其评估还取决于所有进一步的分类C(tj,x),i+1≤ j≤ N

25
大多数88 在职认证  发表于 2022-6-11 09:43:26
更准确地说,对于给定的估计类别^C(ti+1:N,·),定义路径停止策略:^τ(ti,x)(ω):=inf{tj>ti:^C(tj,Xtj(ω))=停止}∧ T、 (4.2)对于初始位置为Xti=X的每条路径X(·)(ω)。现在,通过模拟R独立路径xrti:n从xrti=X开始,R=1,R、 延拓值由^CV(ti,x):=RRXr=1h(^τ(ti,xr(·)),xr^τ(ti,xr(·)),(4.3)在位置x^C(ti,x):=arg max{ustop(ti,x),Ycont(ti,x)},Ycont(ti,x):=CV(ti,x)+cont(ti,x),续:=^CV- 个人简历算法1百慕大期权定价的深度学习要求:M=#个采样位置,R=#个网格的样本路径,M=#个定价样本路径,X=初始价格1:定义到期分类者tN=T:C(tN,X)=停止2:对于i← N- 1至1 do3:生成采样位置x∈ 尺寸为M4的X:对于每个位置X do5:样本R路径xrti:nw,xrti=X,R=1,R6:构建路径停止策略^τr(ti,x):=inf{tj>ti:C(tj,xrtj)=停止}7:通过^CV(ti,x)计算连续值:=RPRr=1h(^τr(ti,x),xr^τr(ti,x))8:如果^CV(ti,x)>h(ti,x),那么9:z(x)← continue10:else11:z(x)← stop12:结束if13:结束for14:训练神经网络,将先前生成的样本(x,z(x))作为输入,将分类^C(ti,·)作为输出15:结束for16:生成样本路径xrt0:nw的Mout,其中xrt=x,r=1,M17:通过对(t,X)18重复步骤6和7计算^CV(t,X):返回估计价格^V(t,X)=max{h(t,X),^CV(t,X)}。术语cont=^CV- Cv总结了两种近似的模拟噪声:确定锻炼策略(4.2)的估计等级C(ti+1:N,·)的usageof和通过样本路径平均值(4.3)将期望值替换为(4.1)的行为。

26
nandehutu2022 在职认证  发表于 2022-6-11 09:43:29
一旦获得决策图^C(t1:N,·),就在X(·)的样本集外估计V(0,X)。我们使用深度学习算法,通过有限样本在整个输入X上高效准确地学习^C。从成熟时间tN=T开始,学习递归返回到T=0,每个^C(ti,·)由神经网络生成。在实践中,可以通过增加模拟的数量来提高训练集中的标签质量,从而减少然而,我们注意到,只要不影响YCONT和h的顺序,错误是可以容忍的,RDO不需要太大。我们在算法1中描述了定价过程。我们还要注意的是,通过深度学习对响应面进行排序的这种特殊应用实际上与[4]中研究的问题具有相同的设置,其中反向递归停止决策由前馈神经网络近似。在某种意义上,[4]使用前馈神经网络作为插值来近似函数,值0和1表示“继续”和“停止”。在我们的工作中,通过将问题重新描述为图像分割,可以使用更精细的神经网络体系结构(如UNet),从而提高计算效率。鉴于上述将百慕大期权定价重新表述为排名响应面的作用,我们对二维最大看涨期权h(t,x)=e进行了数值研究-rt(最大值(x,x)- K) +。下面的资产X=(X,X)由几何布朗运动dXi(t)=(r)建模- δ) Xi(t)dt+σXi(t)dWi(t),i=1,2,(4.4)图10:利用UNIF+NL生成的训练数据深入学习决策图^C(ti,·)(参见表1)。黑色实线显示{继续,停止}的估计边界。色条表示神经网络输出用于“继续”决策的可能性。

27
何人来此 在职认证  发表于 2022-6-11 09:43:33
颜色越深意味着神经网络对分类的感觉越可靠。其中(W,W)是二维标准BM,参数来自【2】:r=5%,δ=10%,σ=20%,X(0)=(90,90),K=100,T=3,N=9,ti=iTN。(4.5)从第3节中的数值试验可以看出,UNIF(或UNIF+NL)的泛化精度高于SD(或SD+NL)。此外,实现UNet onuniform网格比使用顺序设计生成的点更容易。因此,我们将仅使用由均匀网格上生成的数据训练的神经网络来计算百慕大期权价格。图10显示了由深度学习算法针对不同时间片递归估计的决策图。它们按照生成的顺序在时间上向后绘制。不包括tN=3时的主要决策图。正如我们知道的X(0),不需要时间0的贴图。^C由[50150]上的统一32×32网格生成,每个位置的R=100复制。在红色区域,延续值较高,因此保持持有期权是最佳选择;而在黄色地区,即时奖励更高,因此最好立即锻炼。基于重复100次的样本路径中的M=160000,估计价格^V(0,X(0))为8.05,标准偏差为0.029。这个估计值非常接近选项8.075的真实值,在这种情况下,使用二维二项式晶格计算得到[5]。接下来,我们研究了深度学习算法在定价d维Max-Call百慕大期权上的性能,即Payoff函数为h(t,x)=e-rt(最大值(x,…,xd)- K) +,x∈ Rd.标的资产Xi(t)遵循动力学(4.4),i=1,d、 和参数可供选择(4.5)。决策图由1024×d样本在每个位置的[30180]DWR=100个复制进行训练。

28
kedemingshi 在职认证  发表于 2022-6-11 09:43:36
样本使用拉丁超立方体生成,确保集合具有代表性。在表6中,我们列出了各种参数和尺寸选择的计算估计价格^V(0,X(0))和模拟时间,其中我们的结果与二项式晶格方法[9]和原始-对偶方法[2,10]非常一致。我们还可以观察到,基于深度学习的所提出的算法可以很容易地模拟高维的示例(我们的模拟中的最高d=50),而传统方法通常不可行,例如维度>5的示例。在表6中,第四列列出了培训Classifiers^C(ti,·)的时间,以及表6:在(4.5)中选择参数的d基础资产上的最大看涨期权结果。计算时间以秒为单位。二项式值和BC 95%CI分别从[2]和[10]中获得,这仅适用于低维情况(d≤ 5).d X(0)^V(0,X(0))训练时间泛化时间二项BC 95%CI2 90 8.065 74.412 8.0752 100 13.897 303.03 75.714 13.9022 110 21.349 74.195 21.3453 90 11.271 76.366 11.293 100 18.659 768.33 78.596 18.693 110 27.606 75.895 27.585 90 16.594 78.169[16.620,16.653]5 100 26.126 912.20 75.143 26.164]5 110 36.734 76.267[36.710,36.798]10 90 26.220 80.49710 100 37.329 1025.19 79.40210110 50.557 79.76020 90 37.695 83.67720 100 51.676 1695.68 84.52920 110 65.734 84.97850 90 53.653 91.56150 100 69.130 2594.67 90.73450 110 84.444 90.878列给出了使用样本外路径估计价格^V(0,X(0))的计算时间。我们注意到,首先,只需进行一次培训,以对具有不同X(0)的衍生产品进行定价,这就是为什么我们只报告具有相同维度的不同X(0)的培训时间。其次,训练时间与网络参数的随机初始化有关。

29
大多数88 在职认证  发表于 2022-6-11 09:43:39
实际训练时间受交叉熵损失函数测量的经验停止标准以及初始化网络参数与局部极小值的接近程度影响很大。因此,本部分仅供参考,如果从预先训练的参数开始,可能会显著缩短。这与第三条评论有关:将整个问题作为一个分类的优势。通过这样做,可以通过使用精细调整(这在深度学习中很常见)来推广到其他问题设置。实际上,从业者可以对神经网络进行预培训,以确定大型数据集上的停止区域(即具有所有不同回报、波动性、履约价格和到期日的基础资产),这可能需要很长时间。但一旦完成,如果新数据集与原始数据集没有显著差异(这很可能),经过预训练的网络将已经学习到一些与当前分类问题相关的特征。因此,只需要微调,这里有一组常见的微调技术:1)截断预训练网络的最后一层,并将其替换为新层,之后人们只训练新层,而冻结其他层;2)使用较小的随机梯度下降算法的学习率,通常比用于抓挠训练的算法小十倍。

30
nandehutu2022 在职认证  发表于 2022-6-11 09:43:42
因此,推广时间在我们的算法中更为相关,这是初始预训练投资后衍生工具定价的主要成本。5结论和未来工作通过重新构建排序响应面作为图像分割,我们建议使用具有各种架构(如前馈神经网络、UNet)的深层神经网络(NNs)作为计算工具。具体而言,我们考虑使用最小曲面的索引标记整个输入空间,将输入空间分割为不同的部分,并允许使用深度神经网络进行高效计算。这提供了一种有效解决问题的替代方法,而不是在我们之前的工作中使用顺序设计【33】。特别是,深度学习算法提供了一个可伸缩的模型,使预测结果不再依赖于高斯过程(GP)元模型中使用的假设,例如,对局部/非局部核的假设。此外,考虑将响应面排序作为图像分割允许使用广泛的神经网络(例如CNN、UNet和SegNet)。尽管根据我们目前所知,文献中没有严格讨论哪种体系结构最适合图像分割的现有结果,但考虑到更广泛的NNs类别,我们将选择性能更好的无体系结构。例如,在二维综合测试中,UNet比具有可比训练时间的前馈NNs产生更好的精度。更多的例子,包括一个十维合成测试和百慕大选项pricingare,展示了深层神经网络在排序响应面方面的成功,这使得解决更复杂的问题成为可能,例如,最优停止博弈。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2025-12-26 16:47