楼主: 能者818
1474 28

[量化金融] 粗波动率模型的校正:一种卷积神经网络 [推广有奖]

  • 0关注
  • 6粉丝

会员

学术权威

78%

还不是VIP/贵宾

-

威望
10
论坛币
10 个
通用积分
39.5040
学术水平
0 点
热心指数
1 点
信用等级
0 点
经验
24699 点
帖子
4115
精华
0
在线时间
1 小时
注册时间
2022-2-24
最后登录
2024-12-24

楼主
能者818 在职认证  发表于 2022-6-11 06:27:14 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
英文标题:
《Calibrating rough volatility models: a convolutional neural network
  approach》
---
作者:
Henry Stone
---
最新提交年份:
2019
---
英文摘要:
  In this paper we use convolutional neural networks to find the H\\\"older exponent of simulated sample paths of the rBergomi model, a recently proposed stock price model used in mathematical finance. We contextualise this as a calibration problem, thereby providing a very practical and useful application.
---
中文摘要:
在本文中,我们使用卷积神经网络来寻找rBergomi模型的模拟样本路径的H?older指数,rBergomi模型是最近提出的一种用于数学金融的股票价格模型。我们将其视为一个校准问题,从而提供了一个非常实际和有用的应用。
---
分类信息:

一级分类:Quantitative Finance        数量金融学
二级分类:Computational Finance        计算金融学
分类描述:Computational methods, including Monte Carlo, PDE, lattice and other numerical methods with applications to financial modeling
计算方法,包括蒙特卡罗,偏微分方程,格子和其他数值方法,并应用于金融建模
--

---
PDF下载:
--> Calibrating_rough_volatility_models:_a_convolutional_neural_network_approach.pdf (850.57 KB)
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:波动率模型 神经网络 波动率 神经网 Quantitative

沙发
可人4 在职认证  发表于 2022-6-11 06:27:20
校准粗糙波动率模型:卷积神经网络方法Henry STONEAbstract。在本文中,我们使用卷积神经网络来确定rBergomi模型的模拟样本路径的H¨older指数,rBergomi模型是最近提出的用于数学金融的股票价格模型。我们将其视为校准问题,从而提供了一个非常实用的应用程序。1、导言本文的目的是研究卷积神经网络是否能够从一组样本路径中学习随机过程的H¨older指数。回想一下,一个随机过程(Xt)t≥0是H?older连续的,如果| Xt,H?older指数γ>0- Xs |≤ C | t- 所有s、t的s |γ≥ 0和一些常数C。H¨older指数γ的较小值对应于“更粗糙”的采样路径。我们将交替使用H¨older连续性和H¨older正则性这两个术语。卷积神经网络(此处称为CNN)是一种功能强大的机器学习工具,有着广泛的应用,包括(但当然不限于)图像分类【Hinton et al.2012】、【Back et al.1997】、【Simonyan et al.2015】;语音识别【Deng等人,2013年】,【Abdel Hamid等人,2013年】;和自动驾驶汽车【Chen等人,2015年】【Iandola等人,2017年】。最近Bayer和Stemper【Bayer等人,2018年】使用神经网络学习隐含波动率曲面;然后将该网络用作更广泛的期权定价校准方案的一部分。然而,据我们所知,本文是首次探索使用CNN预测给定随机过程的H¨older指数。近年来,数学金融界对分数布朗运动及其相关过程重新产生了兴趣。特别是,[Gatheral等人。

藤椅
能者818 在职认证  发表于 2022-6-11 06:27:22
2018年]进行了一项实证研究,表明对数波动率在短时间尺度上的行为类似于分数布朗运动,赫斯特参数为H≈ 0.1. 这一发现得到了【Bennedsen et al.2017】的证实,他研究了1000多只美国股票,发现Hurst参数H位于每只股票的(0,1/2)。【Gatheral et al.2018】和【Bennedsen et al.2017】都使用最小二乘回归技术来估计H的值。在本文中,我们使用CNN从rBergomi模型的模拟样本路径中找到H¨older指数的值,其中H¨older指数的值各不相同。第3.1小节介绍的rBergomi模型与分数布朗运动具有相似的正则性【Jacquier等人,2018年,命题2.2】。日期:2019年7月30日。2010年数学学科分类。初级62P05;次级60G22、60G15。关键词和短语。粗波动率;卷积神经网络;标定估算。我们要感谢Drew Mann、Mikko Pakkanen、Antoine Jacquier、Aitor Muguruza、Chloe Lacombe和BlankaHorvath的反馈和有益的讨论。我们还感谢EPSRC CDT在金融计算和分析领域提供的金融支持。亨利·斯通这篇论文的结构如下。第二节简要介绍了神经网络和分数布朗运动。第3节概述了本文使用的方法。在第4节中,我们使用CNN来解决预测给定样本路径的H¨older指数作为连续值的回归问题。我们希望建立一种稳健的方法来校准粗糙波动率模型;事实上,一旦CNN接受了培训,我们希望它在对Unsendata进行预测时表现良好。

板凳
何人来此 在职认证  发表于 2022-6-11 06:27:25
因此,在第5节中,我们使用经过训练的CNN预测金融市场变现能力数据的H¨older指数值;这提供了一种简单而准确的校准方法。在第6节中,我们讨论了我们的结果并总结了本文。2、神经网络和分数布朗运动简介我们以【Kinh Gian Do et al.2018】为指南,从神经网络简介开始。2.1. 神经网络。人工神经网络是一个受生物启发的互连处理单元系统,其中每个处理单元称为一层。除第一层外,每个层的输入都是前一层的输出。一层由多个节点组成,给定层中的每个节点连接到后续层中的节点,从而形成网络;此网络中的每条边都有一个关联的权重。第一个处理单元称为输入层,最终处理单元称为输出层。输入层和输出层之间的处理单元称为隐藏层;通常,人工神经网络有多个隐藏层。下面的图1展示了一个简单的人工神经网络的结构,该网络使用Python绘制,使用Github上可用的代码。定义2.1给出了神经网络的正式数学定义【B¨uler et al.2018,定义4.1】。定义2.1。让我∈ N表示神经网络中的层数。每个隐藏层的尺寸用N。。。,荷兰-1.∈ N、 输入和输出层的各自尺寸由N,NL表示∈ N、 对于`∈ 注册护士`-1×N`和b∈ RN `让函数W`:RN`-1.→ RN`定义为W`(x):=A `x+b`,对于`=1。。。,五十、 矩阵A的条目是连接层中每个节点的权重`- 1到图层“”。

报纸
大多数88 在职认证  发表于 2022-6-11 06:27:28
带有激活函数σ的神经网络是函数n:RN→ RNLde定义为成分(2.1)N(x):=WLo (σ o WL型-1) o ... o (σ o W) (十)。人工神经网络的学习过程,也称为训练,本质上归结为在每个矩阵A中找到最佳权重,以最小化给定的损失函数,这取决于手头的任务:在我们的例子中,解决回归问题。然后,可以使用这些最佳权重对测试集进行预测。CNN是一类人工神经网络,其中隐藏层可以根据其用途分组为不同的类别;其中一类隐藏层是同名卷积层。下面我们将描述CNN中使用的隐藏层的类别。当然,这个列表并不是详尽无遗的,并且存在许多隐藏层的类别,为了简洁起见,我们没有对这些类别进行描述。另请注意,我们在试图解决的问题的上下文中描述了一个CNN,其中输入数据arehttps://gist.github.com/craFFEL/2D727968C3AAEBD10359校准粗糙波动率模型:卷积神经网络方法3图1。具有两个隐藏层的神经网络示例。输入层有三个节点;隐藏层分别有五个和六个节点;输出层有两个节点。一维向量。

地板
kedemingshi 在职认证  发表于 2022-6-11 06:27:31
CNN当然也可以用于更高维的输入数据,但隐藏层的基本结构和不同角色不会改变卷积层:在深度学习中,卷积运算是一种用于为输入数据项分配相对值的方法,在我们的例子中是时间序列数据的一维向量,同时保留输入数据各个项之间的空间关系。对于给定的核大小k和长度m的输入向量,卷积运算取entries1。。。,输入向量的k乘以核元素,核元素的长度为k。所得向量的条目之和即为特征图的第一个条目。此操作已删除m+1- k次,从而将数据向量中的每个条目合并到卷积运算中。卷积层的输出称为特征映射。例如,设(1,2,1,0,0,3)为输入向量,(1,0,1)为内核;这里的kernelsize是3。卷积运算的第一次迭代涉及取(1,2,1)和(1,0,1)的元素倍数:得到的倍数为(1,0,1),相应的条目和为2。因此,这是特征图的第一个条目。本例中生成的特征映射为(2、2、1、3)。显然,每个内核的中心不能与inputvector的第一个和最后一个条目重叠。零填充,有时也称为相同的填充,保留输入向量的维度,并允许在CNN中应用更多的层:零填充只是输入向量的扩展,并将第一个和最后一个条目设置为1和0,同时保持其他条目不变。

7
nandehutu2022 在职认证  发表于 2022-6-11 06:27:34
在我们的示例中,输入向量在加零后变为(0、1、2、1、0、0、3、0)。4 HENRY STONEo激活层:激活层是一个非线性函数,应用于卷积层的输出,即特征映射;激活层的目的确实是将非线性引入CNN。这些函数称为激活函数;示例包括sigmoid函数和双曲正切函数。在我们的CNN中,我们使用“LeakyReLU”激活函数,定义为asfα(x):=x、 如果x>0,则为αx,否则为。当装置处于非活动状态时,LeakyReLU激活允许一个小的正梯度最大池层:对于给定的池大小p,最大池层返回一个向量,该向量的入口在特征图中的相邻p个条目中是最大的。例如,对于Feature map(1、3、8、2、1、0、0、4、6、1)和p=3,最大池输出为(8、8、8、8、8、2、4、6、6)。其他池技术应用相同的思想,但使用不同的函数来评估特征图中的相邻p项。示例包括平均池和L2 normpooling,这实际上使用了数学术语中的欧几里德范数脱落层:脱落是一种众所周知的技术,被纳入CNN中,以防止过度安装。在不添加漏层的情况下,给定层中的每个节点都连接到后续层中的每个节点;dropout临时从网络中的不同层删除节点。节点的删除是随机的,由退出率d决定,该退出率给出了要临时删除的节点的比例。请注意,辍学仅在培训期间实施;在测试过程中,每个节点的权重乘以退出率d。Hinton、Krizhevsky、Salakhutdinov、Srivastava和Sutskever对该技术进行了极好的概述【Hinton等人,2014年】。

8
能者818 在职认证  发表于 2022-6-11 06:27:38
作者提供了一项广泛的研究,以表明在许多不同的环境中,CNN的预测性能是如何通过辍学来提高的密集层:也称为完全连接层,顾名思义,输入层中的每个节点都与输出层中的每个节点相连。经过进化层、激活层、合并层和退出层处理后,提取的特征通过密集层的子集映射到最终输出,然后应用激活函数。备注2.2。过滤器数量、内核大小k、池大小p和退出率d都是CNN超参数的示例。在描述了结构之后,我们现在重点关注CNN的训练机制。如前所述,训练CNN对应于在完全连接层中查找权重和在卷积层中查找核,从而最小化特定损失函数。前向传播是通过CNN层将输入数据转换为输出的过程的名称;它用于给出损失函数的值,以及CNN对特定权重和核的预测能力。使用反向传播算法从前向传播计算的损失函数的误差值计算损失函数的梯度;然后,根据损失函数的值,迭代更新权重和核。在我们的CNN中,使用了Adam优化器。有关反向传播算法和Adam优化器的更多详细信息,请分别参见【Bengio等人,2016年,第6.5节,第200-219页】和【Ba等人,2017年】。校准粗糙波动率模型:卷积神经网络方法52.2。分数布朗运动。

9
能者818 在职认证  发表于 2022-6-11 06:27:41
分数布朗运动(此处称为fBm)是一个中心高斯过程,其协方差函数取决于参数H∈ (0,1),称为theHurst参数。精确定义如下,【Biagini等人,2008,定义1.1.1.】;请注意,设置H=1/2会恢复标准布朗运动。定义2.3。让H∈ (0,1):分数布朗运动WHt公司t型≥0是具有以下协方差函数的连续、中心高斯过程WHtWHs公司=|t | 2H+| s | 2H- |t型- s | 2H, 对于所有s,t≥ Hurst参数H的值完全决定了fBm的采样路径H–older规则性。事实上,WHhas有一个版本的样本路径几乎肯定是H¨older连续的,对于所有γ,H¨older指数γ∈ (0,H)。H的值还决定了WHare的增量是如何相关的:当H>1/2时,WHare的增量是正相关的,在这种情况下称为持续的;当H<1/2时,平均值的增量呈负相关,在这种情况下称为反持久性。回想一下,在H=1/2的情况下,标准布朗运动具有独立的增量。上述陈述的更多细节和证据见【Biagini等人,2008年,第1章】。为了可视化H值如何影响这些特征,我们在下图2中绘制了fBm的两条样本路径。很明显,左侧图(其中H=0.1)的样本路径比右侧图“更粗糙”;这与较低的H¨older规律性相对应。与右图之后的趋势相比,左图的明显平均值反转分别说明了W0.1和W0.9的反持久性和持久性。0.2 0.4 0.6 0.8 1.0-11230.2 0.4 0.6 0.8 1.00.20.40.60.81.01.2图2。分数布朗运动的两条样本路径,从t=0到t=1,有1001个样本点。

10
nandehutu2022 在职认证  发表于 2022-6-11 06:27:43
在左图中,我们将H设置为0.1,以便WHis是反持久的;在右图中,我们设定H=0.9,因此WHis是持久的。这里,我们使用Mathematica的“分馏BrownianMotionProcess”函数来模拟每个样本路径。备注2.4。fBm存在许多不同的积分表示。可以说,最广为人知的是Mandelbrot和Van Ness的描述【Mandelbrot等人,1968年,定义2.1】为(2.2)WHt=Γ(H+1/2)Z-∞((t- s) H类-1/2- (-s) H类-1/2)dBs+Zt(t- s) H类-1/2分贝,其中,B是标准布朗运动,Γ是标准伽马函数。6亨利·斯通3。方法学在描述训练和测试数据以及CNN架构之前,我们首先介绍rBergomi模型。3.1. rBergomi模型。拜耳、弗里兹和Gatheral【拜耳等人,2016年】介绍了Bergomi的“第二代”随机波动率模型的非马尔可夫泛化,他们将其称为“rBergomi”模型。设Z为路径定义为(3.1)Zt的过程:=ZtKα(s,t)dWs,对于任何t≥ 0,其中α∈-, 0, W是标准布朗运动,其中核Kα:R+×R+→ R+读数(3.2)Kα(s,t):=η√2α+1(t- s) α,对于所有0≤ s<t,对于某些严格正常数η。注意,对于任何t≥ 0,地图s 7→ Kα(s,t)属于L,因此随机积分(3.1)定义良好。rBergomi模型,其中X是对数股价过程,v是方差过程,然后定义为(3.3)Xt=-Ztvsds+Zt√vsdBs,X=0,vt=vexpZt公司-ηt2α+1, v> 0,其中布朗运动B定义为B:=ρW+p1- ρW⊥对于ρ∈ [-1,1]和一些标准布朗运动W⊥独立于W。过滤(Ft)t≥这里可以看作是由二维布朗运动(W,W⊥).备注3.1。过程日志v有一个修改,其采样路径几乎肯定是局部γ-H–oldercontinuous,对于所有γ∈0, α +【Jacquier等人,2018年,命题2.2】。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-7 21:26