楼主: 能者818
1895 42

[量化金融] 深度学习波动性 [推广有奖]

11
大多数88 在职认证  发表于 2022-6-11 12:24:30
事实上,该方法不仅限于随机模型,隐含波动率的参数模型也可用于生成抽象模型的训练样本,但我们尚未进一步探讨这一方向。粗糙Bergomi模型在抽象模型框架中,粗糙Bergomi模型由MrBergomi(ΘrBergomi)表示,参数θ=(ξ,ν,ρ,H)∈ ΘrBergomi。关于给定的过滤概率空间(Ohm, F、 (Ft)t≥0,P)模型对应于以下系统DXT=-Vtdt+pVtdWt,对于t>0,X=0,Vt=ξ(t)E√2HνZt(t- s) H类-1/2dZs, 对于t>0,V=V>0(3),其中H∈ (0,1)表示赫斯特参数,ν>0,E(·)表示随机指数[21],ξ(·)>0表示初始前向方差曲线(见[11,第6节]),W和Z是与相关参数ρ相关的标准布朗运动∈ [-1, 1]. 将模型参数输入我们的抽象模型框架ΘrBergomi RN对于某些n∈ N、 在第4.1.1节和第4.2.1节的数值实验中,初始正向方差曲线ξ(·)>0用分段常数函数近似。我们请读者参考Horvath、Jacquier和Muguruza【41】,了解粗糙波动率模型的一般设置及其数值模拟。Heston模型第5节数值实验中出现的Heston模型由系统DST=PVTSTDWT描述,对于t>0,S=sdVt=a(b- Vt)dt+vpvtdztf对于t>0,V=V(4),具有相关参数ρ的W和Z布朗运动∈ [-1,1],a,b,v>0和2ab>v。在我们的框架中,它由MHeston(θ)表示,θ=(a,b,v,ρ)∈ Θ赫斯顿 R、 我们在第5节的数值实验中考虑了赫斯顿模型。不同的神经网络环境也考虑了这一点。Bergomi模型在一般n因子Bergomi模型中,波动率表示为vt=ξ(t)EηinXi=1Ztexp-κi(t- s) dWis公司!对于t>0,V=V>0,(5),其中η,ηn>0和(W,…)。

12
mingdashike22 在职认证  发表于 2022-6-11 12:24:33
,Wn)是一个n维相关布朗运动,E(·)是随机指数[21],ξ(·)>0表示初始前向方差曲线,详见[11,第6节]。在这项工作中,我们考虑了第4节中n=1,2的Bergomi模型。此后,M1F Bergomi(ξ,β,η,ρ)表示1因子Bergomi模型,对应于以下动力学:dXt=-Vtdt+PVTDWT对于t>0,X=0Vt=ξ(t)EηZtexp(-β(t- s) )dZs对于t>0,V=V>0,(6),其中ν>0,W和Z是具有相关参数ρ的相关标准布朗运动∈ [-1, 1]. 将模型参数输入我们的抽象模型框架Θ1F Bergomi Rn,对于某些n∈ N、 在第4.1.1节和第4.2.1节中,在我们的数值实验中,通过分段常数函数近似初始前向方差曲线ξ(·)>0。SABR模型Hagan等人[33,34]的随机α-β-ρ模型在我们的设置中表示为MSABR(α,β,ρ),定义为t>0时DST=VtSβTDWT,t>0时S=S.dVt=αVTDZTF,t>0时V=V(7),其中V,S,α>0和β∈ [0, 1]. McGee在[55]中以神经网络为背景考虑了SABR模型(另见第2.3节)。2.2波动率建模和深度校准中的校准瓶颈每当随机波动率模型的数值近似校准程序(2)计算速度较慢时,校准时间瓶颈可认为该模型对工业生产的适用性有限,而不考虑该模型可能具有的其他所需特征。

13
mingdashike22 在职认证  发表于 2022-6-11 12:24:37
这尤其适用于家族粗糙波动率模型,其中波动率动力学中的粗糙分数布朗运动排除了通常的马尔可夫定价方法,如有限差分。到目前为止,这种校准瓶颈一直是粗糙挥发性模型类的主要限制因素,过去几年,大量学术文章[1、2、7、6、8、10、22、26、28、44、40、45]探讨并强调了粗糙挥发性模型的压倒性建模优势。其他示例包括具有精细退化的模型(如zeroforward周围的SABR模型),为了精确计算无套利价格,需要使用耗时的数值定价方法,如有限元法【42】、蒙特卡罗法【15、52】或多重积分评估【3】。与Hernandez(36)的开创性工作相反,他通过NN开发了一种直接校准,我们建立并提倡两setp校准方法。两步方法(i)学习模型和(ii)校准数据:一步将(2)(分别)(2))中所述的校准程序分为两部分:(i)我们首先通过神经网络学习(近似)定价图,该神经网络将随机模型的参数映射到定价函数(或隐含波动率)(参见第(2.1)节),并在有效培训过程中存储该图。在第二步(ii)中,我们校准(在线)现在确定的近似learnedprice图,这将在线校准速度提高几个数量级。为了使两步方法正式化,我们编写了payoffζ和参数θ为M的模型∈ Θ(i)学习:eF(Θ,ζ)=eP(M(Θ,ζ))(ii)校准:^θ=argminθ∈Θδ(eF(θ,ζ),PMKT(ζ))。

14
能者818 在职认证  发表于 2022-6-11 12:24:40
(8) 请注意,在(8)的第(ii)部分中,我们基本上用(i)中的学习(确定性)对应项(Θ,ζ)(将是一个神经网络,请参见第3.2节)替换方程(2)中的dep(M(Θ,ζ))。因此,由于其确定性,第二次校准比所有这些传统随机模型的校准快得多,这些模型涉及对一些潜在随机过程Xθ的预期payoffp(M(θ,ζ))=E[ζ(X(θ))]的数值模拟。(8)中的第一部分(i)表示通过神经网络对定价图进行的近似,神经网络在监督培训程序中使用原始(可能较慢的)数字定价图进行校准,以进行培训(具体示例中的详细信息,请参见第3.2节和第4节)。在下面的章节中,我们详细阐述了这种两步校准方法的目标和优点,并给出了将两步校准方法应用于随机挥发模型族的神经网络架构、精确的数值配方和训练程序的示例。我们还提供了一些数值实验(GitHub上有相应的代码:NN StochVol校准),并报告了学习错误和校准时间。2.3定价函数的神经网络近似中的挑战一般问题(1)和以后的问题(2)通过使用合适的数值优化技术来解决,如梯度下降法[32]、特定度量的特定方法(如L的Lavenberg-Markadnt[53])、神经网络或针对优化问题和目标函数的复杂性定制的方法。但无论其复杂程度如何,所有校准优化人员都有一个共同的特性:重复(迭代)评估定价图θ7→ P(M(θ),ζ)(分别为。

15
mingdashike22 在职认证  发表于 2022-6-11 12:24:44
在连续参数组合的每个实例θ上的近似值p),直到模型价格和观测价格之间的距离δ(eP(M(θ),ζ),PMKT(ζ)足够小。因此,定价图可以说是校准算法的计算核心。具体校准算法之间的主要差异在于评估参数组合的具体选择{θ,θ…}从而确定定价函数的功能评估总数NP(M(θi),ζ)i=1。。。在校准中使用,直到达到所需的精度δ(eP(M(^θ),ζ),PMKT(ζ))。如果定价mapP(M(·),ζ):Θ-→ P(M)θ7→ (1)中涉及的P(M(θ),ζ)以闭合形式可用,并且可以立即进行评估,即使使用了大量的功能评估,校准(2)也很快。如果定价图是数值近似的,则校准时间在很大程度上取决于生成数值近似θi7的函数估值所需的时间→eP(M(θi),ζ),θi∈ {θ,…θN}(9)在每次迭代i=1,N校准程序。缓慢的功能评估可能会导致校准时间出现严重瓶颈。这就是我们看到神经网络近似的重要性的地方:构建一个神经网络来代替(8)中的(i)中的定价图,即(对于给定的财务合同ζ)从模型的全套模型参数Θ到相应价格P(M(θ,ζ))的定价图。定价函数的神经网络近似器面临的第一个挑战是加快这一过程,使我们能够更快地进行函数评估,以了解校准方法的详细信息和概述,请参见【32】。注意,集合θ。

16
何人来此 在职认证  发表于 2022-6-11 12:24:47
,θNin(9)扩展到全套可能的参数组合Θin(10)。从而解除了校准的瓶颈。第二个挑战是这样做的准确度保持在原始数值定价离散化的误差范围内:eF:Θ-→eP(M)θ7→对于任何参数组合θ,eF(θ,ζ)(10)更精确(受(2)激励)∈ Θ我们的目标是用神经网络逼近真实期权价格P的数值近似值P,精度达到相同的阶数 > 0,其中P近似于P。也就是说,对于任何θ∈ ΘeF(θ)=P(M(θ),ζ)+O() 当neverep(M(θ),ζ)=P(M(θ),ζ)+O().因此,我们的训练目标iseF(θ)=eP(M(θ),ζ)+O(). (11) 其中EP是定价函数的可用数值近似值,被视为基本事实。在第4节的数值实验中,我们证明了我们的近似网络达到了这种近似精度,并在函数估值方面产生了显著的加速。2.4我们选择培训设置的动机和neuralnetworks作为定价函数的近似器的特点将定价和校准任务分开有几个优点,我们将在单独的工作中详细介绍这些优点。在此,我们回顾一些最令人信服的理由。最重要的是,最吸引人的原因是,它使我们能够在过去几十年中获得的有关模型的知识的基础上继续发展,从风险管理的角度来看,这是至关重要的。就其设计而言,深入学习价格近似(i)结合(ii)确定性校准不会比相应的tochastic模型更让风险管理者和监管者头疼。

17
能者818 在职认证  发表于 2022-6-11 12:24:50
如上所述设计培训展示了深度学习技术如何在不影响我们任何目标的情况下成功扩展金融工程工具箱。1、多年传统模型经验积累的知识仍然有用,模型风险管理库仍然有效。神经网络仅用于模型的计算增强。2、深层神经网络训练数据的可用性不会造成任何约束,因为它是由传统数值方法综合生成的。这可以扩展到本研究中提出的模型之外:只要一个模型存在一个一致的数值价格,它就可以被一个深度神经网络近似并替换,该网络可以提供定价图的快速数值评估。在此,我们将基于网格的方法确定为我们的培训选择。虽然对最佳培训方法的深入分析有待进一步研究,但我们有充分的理由相信,基于网格的方法为培训提供了一种强大而稳健的方法:2.4.1选择基于网格的隐式培训的原因在基于网格的方法中,我们评估了沿8×11网格点的隐含波动率曲面的值,其值为80,000个不同的参数组合我们有效地评估了在相同数量的点上通过数字生成的表面色调的“fit”。通过将隐含波动性的评估转移到目标函数中,我们在许多方面改进了学习:o内隐训练的第一个优点是它有效地利用了数据的结构。相邻波动点σn的更新-1和σnCa可纳入学习过程。如果输出为(16)中的完整网格,则这种影响会进一步增强。

18
大多数88 在职认证  发表于 2022-6-11 12:24:53
每个网格点上的网络更新也意味着相邻网格点上网络更新的额外信息。可以说,我们将隐含波动率曲面视为具有给定像素数的图像基于图像的隐式训练的另一个优点是,通过在更大的一组(网格)点上评估objectivefunction,映射的内射性可以比在逐点训练中更容易得到保证:如果仅在单个点上评估,则两个不同的参数组合在一组网格点上产生相同值的可能性较小我们不局限于隐含波动率表面上的一个特定网格。我们为训练数据存储生成的60000条样本路径,并选择一组到期日(这里是8条)和罢工(这里是11条)来评估与这些路径对应的价格。但我们可以很容易地在同一组路径中添加和评估额外的到期日和罢工。特别值得注意的是,在本培训设计中,我们可以在隐含波动率面上重新定义网格,而无需增加所需的培训样本数量,也无需显著增加培训的计算时间,因为同一基础上的普通期权组合随着不同的行使和到期日而增长。2.4.2深度神经网络作为函数逼近器的一些相关特性深度前馈神经网络是最基本的深度神经网络,最初设计用于逼近函数F*, 这在封闭形式下不可用,但仅通过给定输入数据x和输出数据y=F的样本对可用*(x) 。

19
大多数88 在职认证  发表于 2022-6-11 12:24:56
简而言之,前馈网络定义映射y=F(x,w),训练确定(校准)网络参数bw的最佳值,从而得出最佳函数近似值F*(·) ≈ 未知函数F的F(·,bw)*(·)对于给定的输入和输出数据对(x,y),参见[32,第6章]。为了将其形式化,我们引入了一些符号,并回顾了通过(前馈)神经网络进行函数近似的一些基本定义和原则:定义1(神经网络)。让我∈ N和元组(N,N··,NL)∈ NL分别表示每层的层数(深度)和节点数(神经元)。此外,我们还介绍了函数WL:RNl-→ RNl+1用于1≤ l≤ L- 1x 7→ Al+1x+bl+1(12)如果没有反馈连接,其中模型的输出反馈到自身,则网络称为前馈。在我们的例子中,y是隐含波动率曲面上的8×11点网格,x是模型参数θ∈ Θ,详情见第3节。某些Al+1的层间作用∈ RNl+1×Nl。向量bl+1∈ RNl+1表示偏差项,每个条目Al+1(i,j)表示连接节点i的权重∈ Nlof层l和节点j∈ 层1+1的Nl+1。对于各层上形式(12)的函数集合,我们确定旋转w=(w,…,wL)。我们将元组w称为任何此类函数集合的网络权重。然后是神经网络F(w,·):RN→ R定义为成分:F:=FLo ···o F(13),其中每个组件的形式为Fl:=σlo Wl。函数σl:R→ R被称为激活函数。它通常是非线性的,并在函数Wl的输出上应用组件。第一层和最后一层Fand FL是输入层和输出层。

20
mingdashike22 在职认证  发表于 2022-6-11 12:24:59
中间层,F···FL-1,称为隐藏层。Hornik的以下中心结果正好说明了神经网络作为多变量函数及其导数的近似器的使用。定理1(普遍逼近定理(Hornik、Stinchcombe和White[38])。设NNσd,dbe为激活函数σ为R 7的神经网络集→ R、 输入维度d∈ N和输出尺寸d∈ N、 然后,如果σ是连续且非常数的,则NNσd,1在Lp(u)中是稠密的,对于所有有限的度量值u。关于神经网络近似结果的文献正在迅速增长,参见[37、39、56、65]及其参考文献。其中,我们想挑出一个特殊的结果:定理2(导数的普遍逼近定理(Hornik、Stinchcombe和White[39])。让F*∈ CNF:Rd→ R和NNσd,1是具有激活函数σ的单层神经网络集:R 7→ R、 输入维度d∈ N和输出尺寸1。那么,如果(非常数)激活函数为σ∈ Cn(R),然后NNσd,1任意逼近f及其导数,直至阶数n。备注1。定理2强调了激活函数的平滑特性在逼近目标函数F的导数时具有重要意义*. 特别地,为了保证目标函数的l阶导数的收敛性,我们选择了激活函数σ∈ Cl(R)。请注意,对于任何l>0,ReLu激活函数σReLu(x)=(x)+不在Cl(R)中,而σElu(x)=α(ex- 1) 是光滑的。xai,2bi+Xj=1ai,jxjσELUActivationfunctionyOutputxai,1Weightsxai,3BiasbNode Inputs图1:详细地说,神经元行为,以下定理为上述经验法则提供了理论界,并在网络中的节点数和训练它所需的训练样本数之间建立了联系。定理3(神经网络的估计界)(Barron[5])。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-7 17:02