楼主: 何人来此
1303 23

[量化金融] 指数Levy神经网络期权定价 [推广有奖]

11
大多数88 在职认证  发表于 2022-6-6 21:56:50
Belomestny和Reiss(BR)方法-xF车型-1.Tlog1+e-iwr Tiw(1+iw)FzXT(k)+^σw-^σ-^b+^λ- 我^σ+^bw(x) ,其中F是傅里叶变换算子h(x)→^h(w),F-1是它的倒数,λ=R∞-∞ν(d x),k=对数k/S,k和T分别是期权的行使和到期时间,zx是期权时间值中涉及的函数。事实上,这不是一个普通的模型,而是一种估计市场生成过程(Xt)t的triplet(σ,ν,b)的校准方法≥正如CT模型所做的那样,该方法也涉及到有限的Lévy度量。它首先生成一个估计值^σ,^b,^λ,然后通过将估计值放入上述表达式中来计算ν。这种方法在理论上很有吸引力,但在实践中并不适用,因为它是严重不适定的。所述模型按历史发展顺序排列。对于参数模型,请注意,参数λ+应限制在其Lévy度量服从假设的域中【a1】。另一方面,对于非参数模型,预计[a1]在校准过程中会得到隐含的满足。2.3. 使用傅立叶变换定价期权在本小节中,我们回顾了Carr和Madan[10]的期权定价方法,其中假设[a1]替换为以下假设:[a1*]α>0,R | x|≥1e(1+α)xν(d x)<∞.它是[a1]的一个轻微扩展,因为α可以选择为任意小的数字。在继续之前,我们将函数h(x)与其傅里叶变换^h(w)之间的关系指定如下:^h(w)=Z∞-∞h(x)ei xwd x,h(x)=2πZ∞-∞^h(w)e-i x wdw。这一规定是必要的,因为傅里叶变换存在各种定义。此外,我们将傅里叶变换算子及其逆表示为F和F-分别为1。

12
大多数88 在职认证  发表于 2022-6-6 21:56:54
所以,F(h)=^h和F-1.^h= h、 我们将计算一个欧洲看涨期权价格CXK,行使K,到期T为T=0。根据鞅pricingaapproach,它由cx(S,K;T)=e给出-r TEQ(ST- K)+.设k=对数,cX(k;T):=cX(S,k;T)S=e-r TEQer T+XT- 埃克+.在假设条件下使用傅里叶变换[a1*] 和[a2],~cX可实现如下:~cX(k;T)=zXT(k)+1.- 埃克-r T+, (4) 式中,zxt(k)=F-1.ζXT(w)(k) ,(5)ζXT(w)=eiwr TΦXT(w- (一)- 1W(1+iw)。(6) 这里,ΦXT是XT的特征函数。注意ΦXT(w- i) 对w进行了充分定义和分析∈ R by【a1】*], 和ΦXT(-i) =1乘以[a2]。这些事实意味着ζXT(0)是有限的。因此,注意ΦXT(w- i) 是w的边界∈ R、 我们可以得出ζXT∈ p的Lp(R)∈ (0.5, ∞]. 此外,ζx的实部和虚部分别为偶数和奇数,因为ζx是实函数zXT的傅里叶变换。这种方法在校准方面非常有效。首先,人们可以将长期的期权数据视为一天的大数据,因为定价公式(4)不需要现货价格S。此外,对于大范围k上的每一个T,~cX(k;T),可以使用快速傅立叶变换(FFT)一次快速计算。总之,只需几个FFT就可以计算出许多期权的模型价格。有关FFT数值实现的详细说明,请参阅【14,29】。在结束本节之前,我们讨论ΦXT(w- i) ,它对后面介绍的网络培训起着重要作用。用ρXT,ΦXT(w)表示x的密度函数- i) 是exρXT的傅里叶变换。因此,根据普朗谢尔定理(参见福兰德[13]),可以得到以下关系:Z∞-∞ΦXT(w- (一)- Φ*XT(宽- (一)dw=Z∞-∞exρXT(x)- exρ*XT(x)d x,(7),其中ρ*Xt是另一个Lévy过程X的密度*t。

13
大多数88 在职认证  发表于 2022-6-6 21:56:56
这意味着,在Lsense中,发现Φ*XT(宽- i) 接近ΦXT(w- i) 导致查找exρ*XT(x)最接近exρXT(x)。Exp-Lévy神经网络在本节中,我们找到了最佳替代(Xt)t≥市场生成过程的0(X*t) t型≥假设它们是Lévy过程,它们的三元组是(σ,ν,b)和(σ*, ν*, b*), 分别地此外,我们假设以下条件以及第2节中给出的[a2][a1**]R∞-∞e2xν(d x)<∞,【a3】R∞-∞ν(d x)<∞.条件【a1】**] 表示资产过程(St)的方差t≥0存在,这通常适用于财务数据。我们设置了[a3],以便本文只考虑有限测度。BR方法,另一种非参数方法,也需要[a1**], 【a2】和【a3】。(同时,CT模型需要[a1*],【a2】和【a3】。)在这些条件下,假设dνd xexists,exdνd x∈ L(R)∩ L(R)可以通过使用Cauchy–Schwarz不等式的astraightforward计算得出。首先,我们必须确定哪些数据用于网络学习。一种简单的方法是尽量减少经常使用的市场价格之间差异的度量c*X和网络预测的值▄Cx。然而,为了实现它,FFT应该在每个历元执行,这是无效的,因为稳定的学习需要大量的迭代。或者,在考虑了最佳适用措施后,我们决定将ΦXT(w- i) 和Φ*XT(宽- i) 学习我们的网络。根据关系式(7),这项工作可以给出exρXT(x)- exρ*对于小ε(x),XT(x)<ε(x),即ρXT(x)-ρ*XT(x)<e-xε(x)。我们的方法有一个风险,即ρXT(x)可能与ρ相差很大*x的XT(x) 0.另一方面,Φ*XT(宽- i) 可按以下方式计算:Φ*XT(宽- i) =1+e-iwr Tiw(1+iw)Fz*XT(k)(w) 。

14
mingdashike22 在职认证  发表于 2022-6-6 21:57:01
(8) 这个表达式很容易从两个公式(5)和(6)中推导出来。现在,我们尝试表示ΦXT(w- i) 明确地。根据Lévy Khinchine公式(1)和假设[a2],ΦXT(w- i) =经验值T-σw+gr(w)+ 我σw+gi(w), (9) 其中w∈ R、 g(w)=f(w- (一)- i(w- i) f级(-i) ,gr=Re(g),gi=Im(g)。注意,g(0)=g(i)=0。通过【a1】**] 和[a3],我们可以显示(w)=h(w)- c- icw,其中h(w)=Z∞-∞exeiwxν(d x),c=Z∞-∞exν(d x),c=Z∞-∞(例如-1) ν(d x)。(10) 因为h是实函数exdνd x的傅里叶变换∈ L(R)∩ L(R),可导出以下公式:h∈ L(R)、h(w)→ 0为| w |→ ∞, 人力资源部(-w) =小时(w)和高(-w) =-hi(w)(h=hr+ihi)(比照Pinsky【27】)。此外,请注意,h(0)=c,h(i)=c- c、 假设h是可微的,hr(0)=0。同时,dνd xc可以从h计算如下:dνd x(x)=e-xF车型-1【h(w)】(x)。这意味着发现h使我们能够估计Lévy测度ν。因此,我们试图通过精心利用人工神经网络,尽可能地从给定的数据中推导出h。严格来说,我们使用前馈神经网络。如果不熟悉这些,可以参考前面的论文,例如,Hutchinson等人[18]。我们制作了两个人工神经网络(ANN)来近似hrand hi。更精确地说,hr(w)=ANNr(w;θr),hi(w)=ANNi(w;θi),其中θrandθi分别是ANNrand ANNi的参数集。稍后将介绍ANNS的详细结构。这样,ΦXT(w- i) in(9)由ΦXT(w)给出- i;Θ)=expT-σw+ANNr(w;θr)- c+ 我σw+ANNi(w;θi)- cw公司,式中,Θ={c,c,σ,θr,θi}。注意ΦXT(w- i) 是一个复杂的函数。这使得人工神经网络很难获得市场信息,因为现有的学习方法(如随机梯度法)只能处理实值函数。

15
可人4 在职认证  发表于 2022-6-6 21:57:05
因此,我们分解ΦXT(w- i) 分成两个实值函数ΦXT,r(w- i) :=ReΦXT(w- (一)和ΦXT,i(w- i) :=即时消息ΦXT(w- (一)欧拉公式如下:ΦXT,r(w- i) =exp R(w)cos(Arg(w)),ΦXT,i(w)- i) =exp R(w)sin(Arg(w)),其中R(w)=T-σw+ANNr(w;θr)- c, Arg(w)=Tσw+ANNi(w;θi)- cw公司.接下来,我们设计ANN,使其能够尽可能多地继承h的属性。因此,可以设计ANN具有以下特性:1。ANNr公司(-wθr)=ANNr(w;θr)2。ANNr(0;θr)=c3。ANNr(0;θr)=04。ANNr(w;θr)→ 0为| w |→ ∞5、安尼(-wθr)=-安尼(w;θr)6。ANNi(0;θr)=07。ANNr(w;θr)→ 0为| w |→ ∞8、ANNr(i;θr)+iANNi(i;θi)=c- Ca经过仔细考虑,我们设置了nR(w)=Wr,0sigWr,1wsig公司-Wr,1w,ANNi(w)=Wi,0sigWi,1wsig公司-Wi,1ww、 其中,Wr、0、Wr、1、Wi、0和Wi、1是权重,sig是sigmoid函数,即sig(x)=1/(1+e-x) 。此外,c:=ANNr(0;θr)和c:=ANNr(0;θr)- ANNr(i;θr)- iANNi(i;θi)。使用sig(αi)sig(-αi)=1/(2(1+cosα)),c=Wr,0,c=Wr,0明确表示-Wr,01+cos Wr,1+Wi,01+cos Wi,1.然后,很容易证明ANN满足上述性质1,2,4,5,6,7,8。因为(sig(w))=sig(w)(1-sig(w)),ANN的导数areANNr(w)=Wr,0sigWr,1wsig公司-Wr,1w-Wr,1sigWr,1w+ Wr,1sig-Wr,1w,ANNi(w)=Wi,0sigWi,1wsig公司-Wi,1w1 +-Wi,1sigWi,1w+ Wi,1sig-Wi,1ww.将w=0代入上述表达式,我们可以检查ANN是否也满足属性3。ANNr(0)=0,ANNi(0)=Wi,0。输入和输出为w和ΦXT,r(w- i) ,ΦXT,i(w- (一)下文分别称为指数Lévy神经网络(ELNN)。由于其极大的灵活性,如果经过适当的训练,ELNN可以包含并优于现有的具有有限Lévy度量的参数exp-Lévy模型,如Merton和Koumodels。

16
nandehutu2022 在职认证  发表于 2022-6-6 21:57:07
此外,由于对神经网络优化问题的各种研究,它似乎优于现有的非参数经验模型,如CT模型和BR方法。图2展示了ELNN的部分结构。节点表示为 将每个节点的所有输入相乘,生成给定的输出。乍一看,ELNN的神经网络可能看起来类似于具有一个隐藏层的神经网络。但是,在本文提出的人工神经网络中,各个隐藏层中的节点被组织成两个,1.-,1.,0,1.-,1.,0乙状结肠安兰尼ArgSigmoidSigmoid乙状结肠图2:该图展示了指数Lévy神经网络(ELNN)的部分结构。节点表示为 将每个节点的所有输入相乘,生成给定的输出。包含相同数量元素的组。来自各组的信号在匹配和相乘时合并为一个信号。此外,各组的权重密切相关。这些精心设计使得ELNN可以被视为exp-Lévy模型的完全广义版本。最后,我们描述了ELNN的一种训练方法,即寻找最佳参数的方法*=c*, c*, σ*, θ*r、 θ*我. 如前所述,我们的基本策略是定位Θ以最小化| |ΦXT(w- i;Θ) -Φ*XT(宽- i) | |。然而,这种方法的幼稚应用很难实现。回想一下,ANNr(w)和ANNi(w)被设计为以| w |的形式变为0→ ∞. 但是,在实践中,ANN仍然很难猜测一个属性常数M>0,以至于它们的值对于| w |>M来说非常小。这个问题极大地增加了ELNN的训练时间。所以,在观察Φ的形状时*XT(宽- i) ,我们手动设置M>0,以便|Φ*XT(宽- i) |<N表示| w |>M和某个值N>0。

17
何人来此 在职认证  发表于 2022-6-6 21:57:11
利用此M,引入正则化函数∧:∧(θr,θi)=Z∞-∞wM公司αANNr(w;θr)+ANNi(w;θi)dw,(11),其中α,至少大于1,在本文中设置为4。我们发现,惩罚原始目标函数| |ΦXT(w- i;Θ) - Φ*XT(宽- i) | | with∧大大缩短了训练时间。注意∧中的| w/M |α对于| w |非常小 M,而对于| w |它非常大 M、 这允许我们将ANN压缩为0表示| w | M不影响其| w | M、 总之,ELNN的目标函数为| |ΦXT(w- i;c、 c,σ,θr,θi)- Φ*XT(宽- i) | |+β∧(θr,θi),其中β是一个小常数,我们将该值设置为0.001。由于该函数的每一项都与R上的积分有关,我们使用梯形规则将其离散在足够大的紧集上。4、数值测试在本节中,我们实现了前一节中的ELNN。为此,我们创造了100000个虚拟开发价格c*通过采用两个参数exp-Lévy0.4 0.2 0.0 0.2 0.4x02468d/dx50 0 50w0.00.20.40.60.81.0Re()T=0.3T=1T=350 0 50w0.100.050.000.050.10Im()T=0.3T=1T=3(a)默顿模型4 0 2 0 4x0.00.51.01.52.02.5d/dx20 0 20w0.20.60.81.0Re()T=0.3T=1T=320 0 20w0.40.20.00.20.4Im()T=0.3T=1T=3(b)Kou模型图3:此图描述SDνd x和ΦXT(w- i) Merton和Kou模型的三个到期日T。文本中写入了模型的参数值。模型,Merton和Kou模型。回想一下,这些模型是基于有限的度量。由于ELNN不是针对这些情况而设计的,因此本文不感兴趣的是具有有限测度(如CGMY模型)的Exp-Lévymodels。图3描述了Lévy密度dνd x和ΦXT(w- i) 对于Merton和Kou模型,r=0.02,T={0.3,1,3}。

18
能者818 在职认证  发表于 2022-6-6 21:57:15
其参数设置如下:σ=0.2,λ=1,u=-默顿模型(2)中的0.05和δ=0.05,σ=0.21,p=0.04,λ=1.4,λ+=3.7和λ-= 1.8在Kou模型中(3)。我们通过监控大量蒙特卡罗模拟中的样本路径来选择合适的参数集。在图中,两个模型的平均密度具有不同的形状。默顿模型的图是连续的,而寇模型的图是不连续的。回想一下,Cont和Tankov[11]直接估算了莱维密度。然而,在估计不连续密度时,这种方法可能会导致严重的不稳定性,例如Kou模型。关于ELNN,问题不会出现,因为ELNN中的ANN近似于(10)中的连续h。观察ΦXT(w)的形状也很有趣- i) 根据T:到期时间越短,ΦXT(w)越明显- i) 取决于模型类型。但它们在长期到期时变得相似,这与正态分布的特征函数非常相似。这是因为跳跃的许多特征由于中心极限定理而减弱。因此,在估计资产的利维测度时,利用资产的短期期权是有效的。此外,如第2节所述,经验模型适用于固定的短时间范围。由于这些原因,我们仅在短期成熟度T=0.05时进行此实验。然后计算z*XTfrom▄c*X并用N(0,0.05z)添加市场噪音*XT)至z*Belomestnyand Reiss工作中的XTas【5】。为方便起见,我们表示扰动z*XTby z公司*在不改变符号的情况下。

19
何人来此 在职认证  发表于 2022-6-6 21:57:19
随着期权的时间价值越来越大,期权价格上的市场噪音变得越来越强,这似乎是合理的。接下来,我们得到Φ*XT(宽- i) 每天使用(8),让ELNN学习,从而获得ΦXT(w- i) 60 40 20 20 20 40 60 W0.00.20.40.60.81.0Re()ELNNtrue60 40 20 20 20 40 60 W0.030.020.010.000.010.020.03Im()ELNNtrue0.2 0.1 0.0 0 0.1 0.2k0.0000.0050.0100.0150.020ZelnTrue0.3 0.2 0.1 0.0.0.1 0.1 0.1 0.2 0.3x02468dv/dxELNNtrue40 20 20 20 40 40 40.20 40.81.0Re()ELNNtrue40 20.30.20.10.00.10.20.3Im()ELNNtrue2 1 0 1 2k0.0000.0050.0100.0150.0200.0250.0300.035zELNNtrue2 1 0 12x0.00.51.01.52.02.5dv/DXELNNTRUE由ELNN预测。在学习过程中,每个组的节点数设置为20,因此ELNN中的节点总数为80。我们发现,更多的节点并不一定能保证更好的结果。(11)中的调节参数M设置如下:对于默顿模型的虚拟市场,M=100;对于Kou市场,M=55。此外,ADAM优化器(Kingma和Ba[19])用于找到上一节中提出的目标函数的良好局部最小值。测试了各种优化器,但ADAMoptimizer优于其他优化器,至少对于ELNN是这样。整个学习过程在30000个时期内进行,并且是一个完整的批次。事实上,我们在获取Φ时使用了一种技巧“数据放大”*XT(宽- i) 从z开始*每天X,因为k空间中的100个点不足以在w空间中找到相当精确的变换。使用数据收集All z*XT在整个数据周期(1000天)内,我们分成1000组,每组包括10000个随机选择的z*XT。然后,我们将每组视为单独的一天数据。与初始设置相比,它可以被视为每天将原始数据放大100次。请注意,这种方法是合理的,因为z*XT不依赖S。

20
可人4 在职认证  发表于 2022-6-6 21:57:22
过一会儿就会证明它非常有效。图4图表ΦXT(w- i) ,zXTandd vd XF用于Merton和Kou车型。蓝色实线和虚线分别表示ELNN的预测值和模型的真实值。灰色标记表示z*XTorΦ*XT(宽- i) 从z开始计算*XT。因为市场噪音干扰了期权价格,Φ*XT(宽- i) 通常会偏离正确的值,尤其是当| w |较大时,这会大大增加有偏学习的可能性。但是,通过在长期数据上训练ELNN,我们可以使误差相互抵消,从而降低偏差风险。请注意,预测行成功地通过了给定的数据点。此外,这些预测值与精确值非常接近,这证明了ELNN具有对市场噪声鲁棒的卓越推理能力。另一方面,对于Kou模型,当tod vd xnear x=0时,ELNN给出的结果稍差。这是由吉布斯现象引起的,吉布斯现象源于Kou模型的Lévy密度在x=0时是不连续的。ELNN估计,Merton模型的波动率σ为0.1998,而Kou模型的波动率σ为0.2106。这些值的相对误差分别只有0.1153%和0.2791%。为了阐明我们对文献的贡献,我们应该将ELNN与其他非参数EXP-Lévy模型、CT模型和BR方法进行比较。然而,我们已经知道,其他模型很容易受到各种因素的影响,而这些因素实际上是它们需要采用的。因此,我们分析并揭示了这些漏洞,而不是直接与ELNN进行比较。这一额外的测试是在现有数据上通过默顿模型进行的,其中我们使用了它唯一的一天数据,不包括市场噪音。首先,让我们看看CT模型。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-10 04:00