楼主: 大多数88
1288 13

[量化金融] 基于深度学习的障碍选项数值BSDE方法 [推广有奖]

11
能者818 在职认证  发表于 2022-6-14 11:48:42
在大约50%的情况下,定价差异小于一便士,而相对误差为0.4%。表4所示的一些孤立病例存在较大差异。为了提高收敛性,我们采用了批量归一化技术。【11】中提出了批量归一化技术。当我们有一个神经网络时,每一层输入分布的变化都会带来一个pr问题,因为参数需要不断适应新的分布。这就是所谓的协变量转移现象。消除内部协变量移位提供了快速训练和批量归一化是实现这一点的机制。批量标准化通过一个标准化步骤来实现这一点,该步骤可以实现输入分布的平均值和方差。我们想指出的是,当在测试中使用批量规范化技术来提高测试的性能时,我们添加了额外的可训练变量;这些具有批次归一化的可训练参数在不同的时间步之间是不同的(即,网络仍将取决于ti)。Zti=净θ,βti(Xti,T- ti),i=0。。。N(10)这里βt是批量归一化中引入的参数。表3所示的试验结果t 2是在每一层上应用批次nor的结果。将测试1和测试2的结果进行比较,我们可以看到,当采用批次非恶性化时,绝对差异和相对差异都有显著改善。此外,那些在测试1中未能收敛的孤立点现在很好地收敛,相对差异小于1%,如表4所示。在执行批处理规范化时,我们可以选择在每一层应用它,也可以只在输入层应用它。无论我们是在每个层应用批处理规范化,还是仅在输入层应用批处理规范化,结果都是相似的,如Ta ble3所示。

12
kedemingshi 在职认证  发表于 2022-6-14 11:48:45
然而,正如我们稍后将展示的那样,计算效率非常不同。表3:网格测试结果-误差统计统计测试1 rel测试2 rel测试3 rel测试1 abs测试2 abs测试3 abs平均值1.21%0.57%0.56%0.0452 0.0099 0.0086STD 2.56%0.54%0.53%0.1399 0.0116 0.009325%分位数0.24%0.21%0.13%0.0017 0.0017 0.0013中间值0.41%0.39%0.48%0.004 3 0.0059 0。004775%分位数1.04%0.70%0.76%0.0174 0.0133 0.0132表4:独立测试案例的结果潜在波动屏障测试1相对误差测试2相对误差0.5 17 1.2 100 18%0.65%0.5 22 0.8 100 4.09%0.34%0.5 27 0.8 100 6.76%0.28%0.5 32 0.8 100 9.03%0.39%2 22 0.4 100 4.02%0.18%2 27 0.4 100 6.42%0.15%4.2.3如前所述,提高效率,我们可以在每个层应用批处理规范化,也可以仅在输入层应用批处理规范化。当我们在每一层应用它时,我们增加了可训练变量,但需要较少的迭代来实现收敛。另一方面,如果我们仅将其应用于输入层,则可训练参数较少,但需要更多迭代才能实现收敛。然而,在后一种情况下,实现收敛所需的总时间较少,如表5所示。仅在输入层应用批处理规范化的总体运行时间几乎快了三倍。表5:效率结果指标t 2结果测试3结果平均迭代步骤需要1000 1670次每200次训练迭代消耗的时间15-20s 4-5s模拟运行时间percase(包括构建时间)200s 75s5结论在这项工作中,我们使用障碍选项作为一个具体示例,求解带边界条件的d a PDE。在这个问题中,扩散域受到屏障的限制。

13
能者818 在职认证  发表于 2022-6-14 11:48:48
通过概率地观察终端条件(即,包括屏障的释放能力),我们能够将该问题重新纳入标准框架,即具有终端条件的PDE。该偏微分方程通过使用机器学习技术的等效BSDE求解。我们利用广泛的市场条件完成了广泛的测试,并与已知的分析结果进行了比较,取得了良好的结果。在一些孤立的情况下,需要使用批处理非规范化技术来改进学习。6附录为了完整性,我们提出了一个技术引理,该引理在第3节中用于从方程(5)到(6)的转换。引理2。假设X是一个随机变量,a是一个事件。对于任何函数f(·),则E[f(X)| A]P(A)=E[f(X)P(A | X)]。证据首先从左侧开始,我们得到E[f(X)| A]P(A)=E[1AE[f(X)| A]=E[E[f(X)1A | A]=E[f(X)1A]。然后,从右侧开始,E[f(X)P(A | X)]=E[f(X)E[1A | X]]=E[E[f(X)1A | X]]=E[f(X)1A]。我们从双方到达的数量相同;从而,证明了这一说法。参考文献【1】约翰·C·赫尔。期权、期货和其他衍生工具,第9版。2015年[2]Weina n E,Jieq un Han,Arnulf Jantzen。高维抛物型偏微分方程和倒向随机微分方程的基于深度学习的数值方法。数学与统计通信,2017年。[3] G.Cybenko。通过叠加S形函数进行近似。控制、信号和系统数学,1989年。[4] 克里斯汀·贝克、韦纳·恩恩、阿努夫·扬岑。高维完全非线性偏微分方程和二阶倒向随机微分方程的机器学习近似算法。文件1709.059632017。[5] Maziar Raissi。前向-后向s-tochastic神经网络:高维偏微分方程的深度学习。

14
kedemingshi 在职认证  发表于 2022-6-14 11:48:51
Arxiv1804.070102018。[6] 昆汀·陈伟南、J·奥斯夫·米凯尔、泽维尔·沃林。半线性偏微分方程的机器学习。arXiv:1809.07609v1,2018年。[7] Masaak i Fujii、Akihiko Takahashi、Masayuki Takahashi。高维BSDE深度学习方法中作为先验知识的渐近展开。Arxiv 1710.070302017年。[8] 王浩杰、陈寒、苏吉安托、刘泽楷、沈琦。基于深度学习的伦敦银行同业拆借利率市场模型BSDE解算器,并应用于贝尔穆丹掉期期权定价和对冲。Arxiv 1807.066222018年。[9] Etienne Pardous,Shige Peng。向后随机微分方程的自适应解。系统与控制Letters,1990年。[10] Emmanuel Gobet。蒙特卡罗方法与随机过程:从线性到非线性。查普曼和霍尔/CRC;2016年第1版。[11] Sergey Io ffe,Christian Szegedy。批量非恶意化:通过减少内部共变来评估deepnetwork培训。机器学习研究论文集,2015年。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-3-11 22:31