楼主: 能者818
1473 28

[量化金融] 粗波动率模型的校正:一种卷积神经网络 [推广有奖]

11
何人来此 在职认证  发表于 2022-6-11 06:27:46
如上所述,fBm的采样路径对于任何γ都是γ-H-older连续的∈ (0,H)[Biagini等人,2008年,定理1.6.1],因此rBergomi模型也通过识别α=H来捕捉这种“粗糙度”- 1/2.3.2. 培训和测试集。我们使用标准化对数波动过程(log(vt/v))的模拟样本路径≥rBergomi模型的0作为我们的输入数据;以相应的H¨older正则性H=α+1/2作为输出数据。为了模拟rBergomi样本路径,我们使用Cholesky分解;推荐使用这种非常著名的模拟技术,因为得到的样本路径具有therBergomi模型的归一化对数波动过程的精确分布,而不是近似分布。所使用的代码在Github上公开可用。根据【Jacquier等人,2018年,命题2.2】,归一化对数波动率过程的H¨older规律性与η值无关;同样的命题证明了(3.1)中定义的过程Z和标准化对数波动率过程具有相同的H¨older规律性。因此,为了简单起见,在生成第4.1小节中的样本路径时,我们在上述模型(3.3)中设置η=1,并且我们也忽略了确定性漂移项t2α+1。在第4.2小节中,我们取η6=1,并验证这不会影响CNN的预测能力。结果输入数据集的每个成员都具有以下形式:向量xi,它是给定H=α+1/2的rBergomisample路径,以及标签yi,它对应于所使用的给定Htohttps://github.com/amuguruza/RoughFCLT/blob/master/rDonsker.ipynbCALIBRATING粗糙波动率模型:卷积神经网络方法7generate xi。对于每个H值,我们生成5000条rBergomi样本路径。然后,我们将输入数据拆分为训练集和测试集;随后,我们从测试集的一部分创建验证集。

12
mingdashike22 在职认证  发表于 2022-6-11 06:27:50
表1给出了rBergomi数据的每个培训/测试/验证集的大小。样本数据集编号培训集14000测试集7500验证集3500表1。rBergomi输入数据大小说明。3.2.1. H值的选择。我们首先让H以及相应的标签yi在离散网格{0.1、0.2、0.3、0.4、0.5}中取值。我们还从两个概率分布中抽取5个H值:均匀分布on(0,0.5)和Beta(1,9)分布。这不仅可以避免网络输出的一致性;当进行校准时,它还应使网络更加稳健,因为历史波动率数据的H值几乎肯定不会在离散网格{0.1、0.2、0.3、0.4、0.5}上。此外,我们还可以强调H的“粗略”值,即H≈ 0.1,尤其是在Beta分布的情况下。β(α,β)分布的概率密度函数由fα,β(x)=xα给出-1(1-x) β-1B(α,β)I(0,1)(x),其中函数B定义为B(α,β):=Γ(α)Γ(β)Γ(α+β),Γ是标准伽马函数。根据现有的实证研究【Gatheral等人,2018年】和【Bennedsen等人,2017年】,我们将α=1,β=9设为β分布的预期值为0.1。对于H的每种采样方法,我们为五个H值中的每一个生成5000条rBergomi采样路径。3.3. CNN架构。我们使用一维CNN,因为我们的输入xiare(一维)向量有三层内核,其中每个内核的内核大小为20,每一层都由alpha=0.1的泄漏ReLU激活函数继承;我们在每一层内核之间添加最大池层(每个大小为3)和退出层。我们在每个卷积层和最大池层中使用零填充。

13
大多数88 在职认证  发表于 2022-6-11 06:27:53
之所以选择内核大小、最大池大小、退出率和弱ReLU激活函数的速率值,是因为它们在所有测试值中均方误差最小。这些超参数绝不是以最理想的方式选择的,但确实是实现准确预测的最佳选择,见第4节的结果。我们在下面阐明了CNN隐藏层的具体结构:o第一层,有32个内核;o最大池层;o脱落层,速率=0.25;o第二层,64个内核;o最大池层;o辍学层,速率=0.25;o第三层,128粒最大池层;对应的一组可能的H值为{0.05、0.18、0.29、0.31、0.44}。对应的一组可能的H值为{0.02、0.07、0.06、0.13、0.22}。8 HENRY STONEoa脱落层,速率=0.4;o128个单元的致密层脱落层,速率=0.3。我们的CNN是计算机科学学科中相当标准的图像处理结构,选择这种结构的原因有两个方面。首先,启发式地,通过将图像矩阵的每个条目的值与相邻条目一起考虑,并将重点放在这些相邻值上,而不是放在远离所考虑条目的条目上,来处理图像。为了研究随机过程样本路径的H¨older正则性,样本路径向量中每个入口的相邻点的值将提供关于该过程H¨older正则性的最多信息;因此,我们采用了图像处理类型的体系结构。第二,避免为每层中的过滤器数量选择最优超参数。如果CNN能够准确地了解H¨older指数的值,那么我们将为数学金融领域做出重要贡献。

14
nandehutu2022 在职认证  发表于 2022-6-11 06:27:55
事实上,rBergomi模型的现有校准技术仍需开发。Al\'os和Shiraya提出的一种校准技术【Al\'os等人,2019年】基于他们的结果,即当波动过程由fBm WH驱动时,欧洲看涨期权的at货币隐含波动性与波动性掉期价格之间的差异具有2HF级的幂律行为。该方法根据模拟数据准确预测H,但在实践中,对于8个月以下的到期日,波动率掉期往往缺乏流动性,因此在实践中很难使用该方法进行准确校准。Chang【Chang 2014】提出的另一种技术建议使用最大似然估计来估计。虽然该方法可以根据模拟的fBm数据准确预测H,但该方法的计算成本太高,无法在定量金融行业中实际应用。最后,我们考虑Gathereal、Jaisson和Rosenbaum的最小平方法【Gathereal等人,2018年】。受fBm增量的QTH矩公式的启发,作者建议通过对数波动过程滞后QTH矩对数与滞后对数的线性回归来估计H。然而,该方法对q的选择很敏感;尤其是对于高阶矩,该方法的性能不佳。此外,在第4节中,我们证明了最小二乘法对显示均值回归的过程产生了错误的H估计。4、解决回归问题我们现在开始解决回归问题,以便从样本路径输入数据中找到H¨older指数。在第4.1小节中,我们使用上述rBergomi模型生成输入数据,使用Cholesky分解,这是本文的主要重点。

15
能者818 在职认证  发表于 2022-6-11 06:27:58
在第4.2小节中,我们使用上述rBergomi输入数据(η6=1除外)以及每个采样路径的随机η和h对CNN进行额外训练。我们还使用fBm采样路径作为输入数据进行训练。目的是用CNN说明这种新方法的鲁棒性。在第4.3小节中,我们简要研究是否可以扩展CNNapproach以额外学习参数η以及参数H。对于fBm WH,以下适用于所有q>0:E[| WHt+- WHt | q】=KqqH,其中Kqis是标准正态分布的绝对qthmomentof。校准粗糙波动率模型:卷积神经网络方法94.1。rBergomi模型。表1给出了rBergomi数据的每个培训/测试/验证集的大小。我们对CNN进行了三次训练:对于离散采样的H、均匀采样的H和forBeta采样的H。CNN校准方法也应对输入数据的尺寸具有鲁棒性,并且在长度为100的向量上训练CNN应产生与在长度为500的向量上训练CNN类似的预测性能。因此,我们用输入向量的长度值{100、200、300、400、500}来训练CNN。我们在表2、3和4中给出了CNN的测试结果。我们使用均方误差作为CNN中的损失函数,并使用均方根误差(RMSE)报告CNN的预测性能,以便H的预测值和真值具有相同的测量单位。我们还将给出完成CNN培训和测试所需的时间(以秒为单位)。Python代码可在以下位置获得:https://github.com/henrymstone/CNN-repository.We使用上述体系结构对网络进行训练,将批量大小设置为64是相当标准的,将epochs设置为30,因为该值给出了最小的均方误差。

16
mingdashike22 在职认证  发表于 2022-6-11 06:28:01
作为比较,我们还在CNN使用的测试集上使用[Gathereal等人2018年第2.1节]建议的最小二乘法(LS)校准方法,并将损失计算为H的预测值和真实值之间的均方根误差。输入长度RMSE(CNN)训练时间(秒)测试时间(秒)RMSE(LS)时间(秒)100 1.041×10-269.77 0.76 2.118 × 10-1591.76200 8.196 × 10-374.89 0.75 2.046 × 10-1622.00300 1.096 × 10-280.92 0.79 2.025 × 10-1635.65400 8.263 × 10-392.02 0.93 2.014 × 10-1634.22500 1.232 × 10-293.76 0.93 2.010 × 10-1627.62表2。离散H的测试结果。输入长度RMSE(CNN)训练时间(秒)测试时间(秒)RMSE(LS)时间(秒)100 1.137×10-266.66 0.68 1.989 × 10-1611.61200 7.910 × 10-372.20 0.73 1.927 × 10-1620.72300 5.115 × 10-379.80 0.78 1.907 × 10-1630.75400 9.409 × 10-386.35 0.82 1.895 × 10-1634.24500 1.282 × 10-296.79 0.93 1.892 × 10-1628.26表3。H的测试结果~ 均匀(0.0,0.5)。对于每个输入长度,在H上训练的CNN的预测性能~ 均匀(0.0,0.5)和离散化H是相似的,在每种情况下,CNN方法在预测能力方面明显优于最小二乘法,达到一到两个数量级。对于H~ 测试版(1,9),CNNalso的性能优于最小二乘法,再次达到一到两个数量级,输入计算在Python中执行,使用Keras模块构建和训练网络,在Macbook Pro2.6 GHz Intel Core i5处理器和8 GB 1600 MHz DDR3内存上。

17
nandehutu2022 在职认证  发表于 2022-6-11 06:28:05
该代码使用该平台的GPU在Google Colaboratory上运行。10 HENRY STONEInput长度RMSE(CNN)训练时间(秒)测试时间(秒)RMSE(LS)时间(秒)100 6.672×10-370.71 0.72 1.040 × 10-1616.74200 7.193 × 10-373.26 0.70 9.962 × 10-2626.77300 1.207 × 10-180.63 0.74 9.791 × 10-2637.45400 1.171 × 10-287.09 0.75 9.699 × 10-2637.33500 1.207 × 10-194.20 0.77 9.663 × 10-2644.60表4。H的测试结果~ β(1,9)。矢量长度为100、200或400;对于其他输入向量长度,CNN的精度略低于最小二乘法。正如两种校准方法所期望的那样,通常情况下,两种情况下所用的时间都是每种采样方法H的输入向量长度的递增函数。由于我们能够使用Google Colaboratory的GPU训练CNN,并且Python的Keras模块已经过优化,可以在GPU上执行,培训和测试所需的时间大约比最小平方法少八倍。每种采样方法的训练和测试时间都非常相似。上述分析表明,减少输入向量的长度不会显著恶化CNN的预测性能;事实上,当H~ Beta(1,9)与长度为100的输入向量和长度为500的输入向量的性能相比,性能有所提高。4.2. 稳健性测试。根据第4.1小节中的分析,我们将输入向量长度设置为100。然后,我们通过让η在rBergomimodel中取{0.25、0.8、1.3、2.5}中的值来生成输入数据,并对H使用离散采样,为每个H生成5000个样本路径。我们在表5中给出了结果;与之前一样,我们还包括均方根误差(RMSE)和[Gathereal等人,2018年]的最小平方(LS)方法所用的时间,作为比较应用于测试集。

18
mingdashike22 在职认证  发表于 2022-6-11 06:28:08
附录B给出了训练误差和验证误差的曲线图。ηRMSE(CNN)训练时间(秒)测试时间(秒)RMSE(LS)时间(秒)0.25 8.206×10-366.81 0.63 2.122 × 10-1666.790.8 1.137 × 10-266.93 0.60 2.122 × 10-1665.681.3 1.473 × 10-267.22 0.66 2.122 × 10-1671.112.5 9.003 × 10-367.27 0.63 2.122 × 10-1667.16表5。η6=1和输入向量长度=100的rBergomi回归结果。我们可以看到,CNN方法在每种情况下都远远优于最小二乘法,无论是预测的准确性还是所用的时间。对于η=0.8,1.3,CNN的性能略差于η的其他两个值,但仍优于最小二乘法。请注意,最小二乘法的均方根误差值仅在四舍五入到小数点后三位时相等。我们进一步扩展了rBergomi数据的稳健性测试,如下所示:我们首先生成25000η~ 均匀(0,3)和H~ Beta(1,9),然后使用这些值模拟25000条长度为100的rBergomi样本路径,每条路径都有其唯一和随机的η和H。相应的训练、测试、校准粗糙波动率模型:卷积神经网络方法11和验证集因此保持相同的大小。结果如表6所示;如上所述,我们将均方根误差和最小二乘法所用的时间作为比较。附录C给出了训练误差和验证误差的曲线图。RMSE(CNN)训练时间(秒)测试时间(秒)RMSE(LS)时间(秒)1.382×10-266.52 0.61 1.499 × 10-1598.51表6。

19
大多数88 在职认证  发表于 2022-6-11 06:28:11
η的rBergomi回归结果~ 均匀(0,3),H~ Beta(1,9),输入向量长度=100。有趣的是,当η~ 均匀(0,3)和H~ β(1,9)对于每个样本路径,与η或H的值固定时相比,在最坏的情况下,CNN的预测能力仅差一个数量级。此外,CNN方法在预测能力和速度方面都保持着相对于最小二乘法的显著优势。我们通过使用使用Cholesky分解生成的fBm样本路径作为训练和测试CNN的输入数据来结束此鲁棒性测试。对于每个H,我们模拟5000条长度为100的样本路径;weemploy离散化H,H~ 均匀(0.0、0.5)和H~ β(1,9)抽样方法。表7给出了结果,附录D给出了训练误差和验证误差图。采样RMSE(CNN)训练时间(秒)测试时间(秒)RMSE(LS)时间(秒)离散化2.483×10-272.79 0.65 2.346 × 10-1635.18均匀2.001×10-271.95 0.64 2.090 × 10-1615.74β1.945×10-272.20 0.67 9.785 × 10-2622.36表7。离散H,H的fBm回归结果~ 均匀(0.0、0.5)和H~ β(1,9)。对于H的每种采样方法,CNN都保持了其相对于最小二乘法的速度优势,并且保持了一个数量级的优异预测性能。稳健性测试的最后一部分的结果让我们得出结论,CNN确实可以从一组样本路径中识别出H¨older正则性,从而回答了本文引言中提出的问题。4.3. 学习扩展η。在这一小节中,我们简要探讨了CNN是否能够了解η的价值,以及H。

20
能者818 在职认证  发表于 2022-6-11 06:28:14
我们使用rBergomi模型,η~ 均匀(0,3),H~ Beta(1,9)表示每个采样路径,长度为100的输入向量作为我们的输入数据,如上所述;相应的输出变量随后成为二维向量yi=(Hi,ηi)。我们继续使用均方根误差作为预测能力的衡量标准,并与上述最小二乘法进行比较。Leatsquare(LS)方法确实可以用来估计η的值【Gathereal等人,2018年,第3.4节】,尽管作者使用的是表示法ν而不是η。结果见表8,损失图见附录E。RMSE(CNN)训练时间(秒)测试时间(秒)RMSE(LS)时间(秒)0.666 71.82 0.62 1.170 613.62表8。学习H和η的回归结果,输入向量长度=100。令人鼓舞的是,我们看到CNN方法在准确性和时间上仍优于最小二乘法;然而,与上述案例中的数量级相比,CNN方法的精确度大约是最小二乘法的两倍。注意,我们保持所有HyperParameterValue不变;通过对CNN中的超参数值进行一些调整,可能会获得更高的预测能力。然而,这并不是本文的目的,我们将这一点留给进一步的研究。备注4.1。我们从理论角度总结了上述结果,并对CNN方法的速度和准确性优势进行了评论。上述结果表明,当根据模拟rBergomi和fBm数据估算H时,CNN方法在数量级上更为准确,且明显快于[Gatheral等人,2018年]中建议的现有方法。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-7 06:09