楼主: 能者818
1479 28

[量化金融] 粗波动率模型的校正:一种卷积神经网络 [推广有奖]

21
kedemingshi 在职认证  发表于 2022-6-11 06:28:17
对CNN方法速度优势的解释是,一旦对网络进行了训练,就可以通过直接计算定义2.1中给出的成分(2.1)进行估计;另一方面,THLS方法需要进行多次连续回归才能估计H。显然,CNN方法将比LS方法更快。现在,我们回顾了我们的动机,即使用CNN来估计H:CNN的预测能力在于卷积算子,它为输入向量xi的每个条目xji赋值;该值由邻近xji的条目的相对值确定。为了估计随机过程的H¨older正则性,轨迹向量中每个入口的相邻点的值将提供关于该轨迹H¨older正则性的大多数信息,因此CNN确实是估计H的有效手段。CNN能够通过卷积算子的交互应用检测非常微妙的路径正则性特性,允许对H进行非常准确的预测。此外,LS估计基于对数波动率增量的QTH估计,其精度高度依赖于q的选择,而CNN方法完全独立于q的选择。总之,这解释了为什么CNN方法比LS方法给出更准确的H估计。4.4. (均值回复)Ornstein-Uhlenbeck过程的稳健性检验。我们在第4节中比较了CNN和LS方法在(均值回复)OrnsteinUhlenbeck过程中的性能。

22
大多数88 在职认证  发表于 2022-6-11 06:28:21
回想一下(均值回复)Ornstein-Uhlenbeck过程X满足以下条件:dXt=(a- bXt)dt+cXtdWt,X=X∈ R、 其中W是标准布朗运动,X是所有γ的γ-H¨older连续∈ (0, 1/2); 因此,我们预计这两种方法都可以估计H≈ 0.5.我们使用上面详述的离散和均匀H采样方法,将CNN的输入长度设置为100。然后,使用每个训练好的网络来估计(均值回复)Ornstein-Uhlenbeck过程轨迹上的H,该过程使用Euler-Maruyama方法进行模拟。我们模拟了1000条长度为100的轨迹,设定(x,a,b)=(0.1,1,2.1),并在下表9中报告了“高挥发性”(c=3)和“低挥发性”(c=0.3)状态下CNN和LS方法的平均估计H值。表9中的结果提供了令人信服的证据,证明CNN确实在学习样本路径的H¨older规律,因为CNN的平均H估计值非常接近0.5。请注意,平均LS H估计值远高于0.5。结果提供了进一步的证据,证明我们没有试验贝塔抽样法,因为这些H值集中在0.1左右,因此当我们预计H时,会产生很差的估计值≈ 0.5.校准粗糙波动率模型:卷积神经网络方法13c CNN(离散化)CNN(均匀)LS3 0.46 0.42 0.220.3 0.49 0.44 0.67表9。(均值回复)Ornstein-Uhlenbeck过程X.CNN方法的平均H估计值优于LS方法,LS方法不仅比CNNapproach更慢、更不准确,而且可能会错误地识别数据中的粗糙度。5、使用CNN进行校准我们首先使用第4节中经过培训的CNN预测牛津曼定量金融研究所(Oxford Man Institute of Quantitative Finance)历史变现能力数据的H¨older指数,该指数免费且公开。

23
能者818 在职认证  发表于 2022-6-11 06:28:24
根据第4节给出的分析,我们选择输入向量的长度为100。我们从31个可用指标中选取10个不同指标作为样本;然后,对于每个索引,我们使用200个连续数据点的时间序列来创建11个长度为100的向量(条目0到100、10到110等等),以预测每个索引的H¨older指数。我们计算CNN预测和最小二乘预测之间的均方根误差,以及两个预测之间差异的标准偏差;见表10。采样方法均方根误差标准差离散化H 5.558×10-22.900 × 10-3小时~ 均匀(0.0,0.5)2.444×10-11.141 × 10-2小时~ β(1,9)4.253×10-21.098 × 10-3表10。校准结果事实上,我们可以看到这组结果非常有希望。在每种情况下,均方根误差和标准偏差都很小;注意,均方根误差值和离散H和H的标准偏差~ Beta(1,9)是比forH大一个数量级~ 均匀(0.0,0.5)。因此,这表明网络获得的标定值与最小二乘法获得的标定值非常接近。请注意,这反过来又提供了进一步的证据≈ 0.1,进一步证实了[Gatheral等人,2018年]和[Bennedsen等人,2017年]的发现。因此,我们可以声明,该校准方案足够精确,可以在实践中使用,其中我们建议使用H~ Beta(1,9)用于训练输入长度为100的网络,因为测试中的均方根误差和标准偏差较小,网络输出不离散,且该分布强调H的“粗略”值,即H≈ 0.1.我们的校准方案的实际实施是一个简单的两步过程。

24
mingdashike22 在职认证  发表于 2022-6-11 06:28:27
第一步是训练CNN,由从业者选择H采样方法和输入长度n;这可以一次完成,并保存训练网络的权重,以避免每个校准任务不必要的重复。第二步是将最近的n个波动率观测值输入CNN,CNN将返回这些n个观测值的相应H值。H=α+1/2 can的该值thenhttps://realized.oxford-man.ox.ac.uk/data/downloadAEX、全普通股、DAX、富时100指数、恒生、俏皮50指数、纳斯达克100指数、日经225指数、标准普尔500指数、上证综指。14 HENRY STONEbe被输入rBergomi模型并用于定价。我们注意到,执行校准方案的从业者需要对H采样方法和输入长度n的最佳选择进行一些测试。备注5.1。我们现在借此机会讨论本文提出的校准方法。我们将校准视为一个有监督的学习问题,而实际上,严格来说,它是一个无监督的学习问题。虽然第4节给出的回归问题中输入数据中的每个向量确实标有相应的H值,但牛津曼研究所“已实现”库中的数据没有此类标签,因此我们使用最小二乘校准值作为“真”值。6、结果和结论的讨论本文给出的结果非常有希望:CNN确实可以用于对rBergomi和fBm样本路径的H¨older指数进行高精度预测。事实上,我们推测,如果我们优化CNN中的超参数值,可以获得更高的精度。此外,调用k-折叠交叉验证可以进一步提高CNN的预测能力。

25
kedemingshi 在职认证  发表于 2022-6-11 06:28:30
此外,这两种技术还可用于对therBergomi模型中的参数η进行更精确的预测。本文的结果为未来的研究提出了许多有趣的问题。首先,是否有可能使用未标记的波动率数据以及已知的预测公式来训练网络并预测“粗糙度”,从而进一步改进该校准方法并解决显著问题5.1?其次,在输入数据为fBm采样路径的情况下,或者在我们还试图学习η值的情况下,我们能否实现更精确的预测?最后,我们提出了以下问题:使用更传统的机器学习技术,如插入法和boosting方法,是否有可能获得类似的预测结果?综上所述,在本文中,我们首次表明,CNN确实可以以高精度学习时间序列数据的“粗糙度”(即H¨older指数)。此外,我们还提供了一种高效、准确的方法来校准rBergomi模型。我们还表明,我们的方法在数量级上比[Gatheral等人,2018年]中建议的现有方法准确得多,速度明显更快。我们展示了我们的方法,可以正确估计均值回复系数上的H,其中最小二乘法失败,并且无法正确识别粗糙度。最后,论文还为未来的研究开辟了许多有趣的途径。参考文献【Mandelbrot等人,1968年】Mandelbrot,B.B.,和Van Ness,J.W.,分数布朗运动,分数噪声和应用,暹罗评论,1968年,10422-437。【Back等人,1997年】Back,A.D.,Chung Tsoi,A.,Giles,C.L.和Lawrence,S.,人脸识别:卷积神经网络方法。IEEE神经网络学报,1997,8(1),98-113。【Biagini等人,2008年】Biagini,F.,Hu,Y.,Oksendal,B。

26
可人4 在职认证  发表于 2022-6-11 06:28:33
和Zhang,T.,分数布朗运动的随机微积分及其应用,2008(Springer:伦敦)。【Hinton等人,2012年】Hinton,G.E.、Krizhevsky,A.和Sutskever,I.,深卷积神经网络的图像网分类,神经信息处理系统进展,2012年,25。【Abdel Hamid等人,2013年】Abdel Hamid,O.,Deng,L.和Yu,D.,探索用于语音识别的卷积神经网络结构和优化技术。Interspeech,2013年。校准粗糙波动率模型:卷积神经网络方法15【Deng等人,2013年】Deng,L.、Hinton,G.和Kingsbury,B.,《用于语音识别和相关应用的新型深度神经网络学习:概述》,IEEE声学、语音和信号处理国际会议,2013年。【Chang 2014】Chang,Y.C.,有效实施Hurst指数的最大似然估计,HindawiPublishing Corporation Mathematic Problems in Engineering Volume 2014,2014。【Hinton et al.2014】Hinton,G.E.、Krizhevsky,A.、Salakhutdinov,R.、Srivastava,N.和Sutskever,I.《辍学:防止神经网络过度拟合的简单方法》,《机器学习研究杂志》,2014年,第15期,1929-195。【Chen等人,2015年】Chen,C.、Kornhauser,A.、Seff,A.和Xiao,J.DeepDriving:学习自动驾驶中的直接感知功能,IEEE国际计算机视觉会议(ICCV):2722-27302015年。【Simonyan等人,2015年】Simonyan,K.和Zisserman,A.《用于大规模图像识别的极深卷积网络》,2015年,预印本可在arXiv上获得:1409.1556v6(2019年2月12日访问)。【拜耳等人,2016年】拜耳,C.,弗里兹,P.K.和Gatheral,J.,粗糙波动下的定价。数量。《金融》,2016年16(6),887-904。【Bengio等人,2016年】Bengio,Y.,Courville,Y.和Goodfello,I.,深度学习,2016年,(麻省理工学院出版社:马萨诸塞州)。【Ba等人,2017年】Ba,J。

27
能者818 在职认证  发表于 2022-6-11 06:28:35
和Kingma,D.P.,Adam:随机优化方法,2017年,预印本可从atarXiv获得:1412.6980v9(2019年2月12日访问)。【Bennedsen等人,2017年】Bennedsen,M.、Lunde,A.和Pakkanen,M.S.,《分离随机波动的短期和长期行为》,2017年,预印本可在arXiv获得:1610.00332v2(2019年2月12日访问)。【Iandola等人,2017年】Iandola,F.N.,Jin,P.H.,Keutzer,K.和Wu,B.SqueezeDet:用于自动驾驶实时目标检测的统一、小型、低功耗全卷积神经网络,IEEE计算机视觉和模式识别研讨会(CVPRW):446-4542017年。【拜耳等人,2018年】拜耳,C.和斯坦珀,B.,《粗随机波动率模型的深度校准》,2018年预印本可在arXiv获得:1810.03399v1(2019年2月12日访问)。【B¨uler等人,2018年】B¨uler,H.,Gonon,L.,Teichman,J.和Wood,B.,深度对冲,2018年,预印本可在atarXiv获得:1802.03042v1。【Gatheral等人,2018年】Gatheral,J.、Jaisson,T.和Rosenbaum,M.,波动性很粗糙。数量。《金融》,2018,18(6),933-949。【Jacquier等人,2018年】Jacquier,A.,Pakkanen,M.S.和Stone,H.,粗略Bergomi模型的路径大偏差,J.of App。问题。,2018, 55(4), 1078-1092.【Kinh Gian Do等人,2018年】Kinh Gian Do,R.、Nishio,M.、Togashi,K.和Yamashita,R.,《卷积神经网络:放射学概述和应用》,Insights into Imaging,2018年,9(4),611-629。[Al`os et Al.2019]Al`os,E.,和Shiraya,K.,从短期波动率掉期中估计赫斯特参数:Malliavincalculus方法,金融与随机,2019,23(2),423-447。附录A.具有不同H样本的rBergomi损失图。我们绘制了离散H、H在每个历元的训练损失和验证损失(MSE)~ 均匀(0.0、0.5)和H~ 图3、4和5中的β(1、9)。

28
kedemingshi 在职认证  发表于 2022-6-11 06:28:39
注意,随着历元数的增加,训练损失和验证损失都会减少;这很好地表明,预测性能会随着时代数量的增加而提高,而不会过度匹配【Kinh Gian Do等人,2018年,过度匹配部分,第619页】。唯一的例外是图5,输入长度为300或500;请注意,这两种情况也对应于较大的均方根误差值。然而,回想一下,我们的校准方案使用长度为100的输入向量,因此这不会给实际使用带来任何实际问题。16亨利·斯通图3。离散H的损失图。校准粗糙波动率模型:卷积神经网络方法17图4。H的损失图~ 均匀(0.0,0.5)。18亨利·斯通图5。H的损失图~ β(1,9)。校准粗糙波动率模型:卷积神经网络方法19附录B。η6=1的rBergomi损失图我们现在绘制每个历元的训练损失和验证损失(MSE),如上所述,对于离散H和η的rBergomi模型∈ 图6中的{0.25、0.8、1.3、2.5}。我们将输入向量长度固定为100。对于每个η值,训练损失和验证损失均随时间的推移而减少。图6:。离散H和η的损失图∈ {0.25, 0.8, 1.3, 2.5}.20 HENRY Stone附录C.rBergomi损失图,含η~ 均匀(0,3)和H~ Beta(1,9)我们现在绘制每个时期的训练损失和验证损失(MSE),如上所述,对于带有η的rBergomi模型~ 均匀(0,3)和H~ 每个示例路径的Beta(1,9),如图7所示。我们将输入向量长度固定为100。注意,训练损失和验证损失都随着每个历元而减少。图7:。η损失图~ 均匀(0,3)和H~ β(1,9)。校准粗糙波动率模型:卷积神经网络方法21附录D。

29
何人来此 在职认证  发表于 2022-6-11 06:28:42
具有不同H采样的fBm的损失图对于具有离散H、H的fBm,我们绘制每个历元的训练和验证损失(MSE)~ 均匀(0.0、0.5)和H~ 图8、9和10中的β(1、9)。如附录B所示,我们将输入向量长度固定为100。对于离散H和H~ 均匀(0.0,0.5)训练损失和验证损失均随历元的增加而减小。对于H~ 然而,β(1,9),训练损失减少,但验证损失仍然存在。这可能意味着过度匹配和较差的预测性能;注意,均方根误差确实高于离散化H和H~ 均匀(0.0,0.5)。图8:。具有离散H的fBm损失图。图9。带H的fBm损耗图~ 均匀(0.0,0.5)。图10:。带H的fBm损耗图~ β(1,9)。22 HENRY Stone附录E.学习损失图η在图11中,我们绘制了每个时期的训练损失和验证损失(MSE),如附录C所示,对于带有η的rBergomi模型~ 均匀(0,3)和H~ 每个采样路径的Beta(1,9)。回想一下,在这种情况下,CNN正在学习η的值以及H的值。我们将输入向量长度乘以100。请注意,训练损失和验证损失都会随着每个历元而减少。图11:。η损失图~ 均匀(0,3)和H~ β(1,9)。伦敦帝国理工学院数学系邮箱:henry。stone15@imperial.ac.uk

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-8 11:49