楼主: 何人来此
1429 34

[量化金融] 百慕大期权定价的神经网络回归 [推广有奖]

11
kedemingshi 在职认证  发表于 2022-6-24 09:30:58
对于这一点,使用两个递归方程,我们得到了e[Zτpn- Zτn | FTn]=ZTn{ZTn≥Φp(XTn;θpn)}- 1{ZTn≥E[Zτn+1 | FTn]}+ EhZτpn+1{ZTn<Φp(XTn;θpn)}- Zτn+1{ZTn<E[Zτn+1 | FTn]}| FTni。现在,定义ApnasApn=(ZTn- E[Zτn+1 | FTn]){ZTn≥Φp(XTn;θpn)}- 1{ZTn≥E[Zτn+1 | FTn]},我们得到[Zτpn- Zτn | FTn]=Apn+EhZτpn+1- Zτn+1 | FTni{ZTn<Φp(XTn;θpn)}。(13) 根据归纳假设,术语EhZτpn+1- Zτn+1 | FTnigoes to zero in L(Ohm) 随着p进入实体。所以,我们只需要证明Apn在L中收敛到零(Ohm) 当p→ ∞. 为此,请注意| Apn |≤ZTn公司- E[Zτn+1 | FTn]{ZTn≥Φp(XTn;θpn)}- 1{ZTn≥E[Zτn+1 | FTn]}≤ZTn公司- E[Zτn+1 | FTn]{E[Zτn+1 | FTn]>ZTn≥Φp(XTn;θpn)}- 1{Φp(XTn;θpn)>ZTn≥E[Zτn+1 | FTn]}≤ZTn公司- E[Zτn+1 | FTn]{| ZTn-E[Zτn+1 | FTn]|≤|Φp(XTn;θpn)-E[Zτn+1 | FTn]|}≤Φp(XTn;θpn)- E[Zτn+1 | FTn].所以我们得到| Apn |≤Φp(XTn;θpn)- E[Zτpn+1 | FTn]+E[Zτpn+1 | FTn]- E[Zτn+1 | FTn]. (14) 此外,由于条件期望是一个正交投影,我们清楚地知道E[Zτpn+1 | FTn]- E[Zτn+1 | FTn]≤ EE[Zτpn+1 | FTn+1]- E[Zτn+1 | FTn+1]. (15) 然后,n+1的归纳假设得出,(14)的r.h.s上的第二项在L中变为零(Ohm) 当p→ ∞.为了处理(14)的r.h.s的第一项,我们引入了∈ N、 θpn∈ Θpde作为θ的最小值∈ΘpEhΦp(XTn;θ)- EZτn+1 | FTni、 (16)请注意,Φ(·,¢θpn)是n时真实延拓值nnpo的最佳近似值。当θpn解(9)时,我们清楚地知道Φp(XTn;θpn)- E[Zτpn+1 | FTn]≤ EΦp(XTn;¢θpn)- E[Zτpn+1 | FTn]≤ 2E类Φp(XTn;¢θpn)- E[Zτn+1 | FTn]+ 2E类E[Zτn+1 | FTn]- E[Zτpn+1 | FTn](17) 使用n+1的归纳假设,(17)的r.h.s上的第二项在(Ohm) 从普遍逼近定理(见定理2.2和备注(2.3)),我们得出→∞EΦp(XTn;¢θpn)- E[Zτn+1 | FTn]= 然后,我们得出结论,跛行→∞E[| Apn |]=0。

12
何人来此 在职认证  发表于 2022-6-24 09:31:01
下一个命题表明,如果我们对一类合适函数的网络近似的收敛速度有一个估计,我们就能够推导出百慕大期权价格的收敛速度。命题4.3假设每0≤ n≤ N-1,存在一个正实数序列(δpn),使得infθ∈ΘpEhΦp(XTn;θ)- EZτn+1 | FTn当p时,i=O(δpn)→ ∞. (18) 然后,E|E[Zτpn | FTn]- E[Zτn | FTn]|= 在上-1Xi=nδpi!当p→ ∞.证据我们使用与命题4.1证明中相同的符号。我们沿着后方向前进。首先注意τpN=τN=T,然后使用(13),ApN-1=E[ZpτN-1.- ZτN-1 | FTN-1].此外,从(14)中,我们得到ApN公司-1.≤Φp(XTN-1.θpn)- E[ZτpN | FTN-1].再次使用τpN=τN,我们推断出E[ZτpN-1 | FTN-1] - E[ZτN-1 | FTN-1]≤ infθ∈ΘpEhΦp(XTN-1.θ) - EZτN | FTN-1.i、 因此,EE[ZτpN-1 | FTN-1] - E[ZτN-1 | FTN-1]= O(δpN-1) 当p→ ∞.假设n+1的结果为真(0≤ n≤ N-2) ,我们将证明这是正确的|E[Zτpn- Zτn | FTn]|≤ 2E类EhZτpn+1- Zτn+1 | FTni+ 2E[| Apn |]≤ 2E类EhZτpn+1- Zτn+1 | FTn+1i+ 2E[| Apn |]我们使用的地方(15)。然后,利用归纳假设,我们得到|E[Zτpn- Zτn | FTn]|≤ O(δpn+1)+2E[| Apn |]。从(14)和(15),我们有≤ 2E类Φp(XTn;θpn)- E[Zτpn+1 | FTn]+ 2E类E[Zτpn+1 | FTn+1]- E[Zτn+1 | FTn+1]≤ 4 infθ∈ΘpEhΦp(XTn;θ)- EZτn+1 | FTni+6EE[Zτpn+1 | FTn+1]- E[Zτn+1 | FTn+1]最后的不平等来自哪里(17)。根据归纳假设,第二项以O为界PN编号-1i=n+1δpi. 从(18)中,第一项以O(δpn)为界。然后,我们得出结论,当p→ ∞E|E[Zτpn | FTn]- E[Zτn | FTn]|= 在上-1Xi=nδpi!。4.3蒙特卡罗近似的收敛性在以下情况下,我们假设p是固定的,并研究样本数M的收敛性。

13
nandehutu2022 在职认证  发表于 2022-6-24 09:31:04
首先,我们回顾了关于代价函数收敛的一系列优化问题解的收敛性的一些重要结果。4.3.1优化问题的收敛性考虑紧集K上定义的实值函数序列(fn) Rd.定义,vn=infx∈Kfn(x)并设xnbe为极小值序列fn(xn)=infx∈Kfn(x)。根据[鲁宾斯坦和夏皮罗,1993年,第2章],我们得到了以下结果。引理4.4假设序列(fn)在K上一致收敛为连续函数f。让v?=infx公司∈Kf(x)和S?={x∈ K:f(x)=v?}。然后vn→ v和d(xn,S?)→ 0a。s、 在下文中,我们还将大量使用以下结果,这是对Banach空间中大数定律的重述,请参见【Ledoux和Talagrand,1991,推论7.10,第189页】或【Rubinstein和Shapiro,1993,引理A1】。引理4.5 Let(ξi)i≥1是i.i.d.Rm值随机向量序列和h:Rd×Rm→ Rbe是一种可测量的功能。假设oa.s.,θ∈ Rd7→ h(θ,ξ)是连续的,oC>0,Esup |θ|≤C | h(θ,ξ)|< +∞.那么,a.s.θ∈ Rd7→nPni=1h(θ,ξi)局部一致收敛于连续函数θ∈ Rd7→ E[h(θ,ξ)],ielimn→∞sup |θ|≤CnnXi=1h(θ,ξi)- E[h(θ,ξ)]= 0 a.s.4.3.2强大数定律要证明强大数定律,我们需要以下假设。(H-1)对于每个p∈ N、 p>1,存在q≥ 1和κp>0 s.t。x个∈ Rr,θ ∈ Θp,|Φp(x,θ)|≤ κp(1+| x | q)。此外,对于所有1≤ n≤ N- 1,a.s.随机函数θ∈ Θp7-→ Φp(XTn,θ)是连续的。注意,由于Θpis是紧集,连续性自动产生一致连续性。(H-2)对于(H-1)中定义的q,E[| XTn | 2q]<∞ 对于所有0≤ n≤ N、 (H-3)对于所有p∈ N、 p>1和所有1≤ n≤ N- 1,P(ZTn=ΦP(XTn;θpn))=0。我们引入符号spn=arg infθ∈ΘpEΦp(XTn;θ)- Zτpn+1.

14
大多数88 在职认证  发表于 2022-6-24 09:31:07
(19) 请注意,Spnis是一个非void紧集。(H-4)对于每个p∈ N、 p>1和每隔1≤ n≤ N、 对于所有θ,θ∈ Spn,Φp(x;θ)=所有x的Φp(x;θ)∈ RrRemark 4.6经典激活函数ReLUσa(x)=(x)+,sigmoidσa(x)=(1+e)明显满足假设(H-1-x)-1和σa(x)=tanh(x)。当XTnhas adensity定律与Lebesgue测度有关时,(H-1)中所述的连续性假设被二元阶跃激活函数σa(x)=1{x所满足≥0}.备注4.7考虑到神经网络中存在的自然对称性,很明显,集SPN很难简化为单态。所以,参数bθp,Mnorθpn都不是唯一的。在这里,我们只要求神经网络近似所描述的函数是唯一的,而不要求其表示,这在实践中更弱、更真实。Werefer向Albertini等人(1993年)、Albertini和Sontag(1994年)介绍了神经网络对称性的表征,并向Williamson和Helmke(1995年)介绍了最佳神经网络近似(但不是其参数)的存在性和唯一性的结果。首先,我们证明了条件期望的神经网络逼近在每个时间步的收敛性。命题4.8假设假设(H-1)-(H-4)成立。设θpn为优化问题(19)的最小值,bθp,mn为样本平均优化问题(10)的最小值,那么,对于每n=1,N、 Φp(X(1)Tn;bθp,Mn)收敛到Φp(X(1)Tn;θpn)a.s.作为M→ ∞.引理4.9,对于每n=1,N- 1,| Fn(a,Z,X)-Fn(b,Z,X)|≤NXi=n | ZTi |!N-1Xi=n{| ZTi-Φp(XTi;bi)|≤|Φp(XTi;ai)-Φp(XTi;bi)|}!证明(命题4.8的证明)。我们采用归纳法。第1步。对于n=n- 1,bθp,MN-1溶剂INFθ∈ΘpMXm=1Φp(X(m)TN-1.θ) - Z(m)TN.我们的目标是将引理4.5应用于i.i.d.随机函数序列hm(θ)=Φp(X(m)TN-1.θ) - Z(m)TN.

15
mingdashike22 在职认证  发表于 2022-6-24 09:31:10
根据假设(H-1)和(H-2),我们推断supθ∈ΘP | hm(θ)|≤ 2κpE[XTN公司-1.2q]+E[(ZT)]<∞.引理4.5表示a.s.函数θ∈ Θp7-→MMXm=1Φp(X(m)TN-1.θ) - Z(m)TN一致收敛于E[Φp(XTN-1.θ) - ZTN公司]. 因此,我们从引理4.4推导出thatd(bθp,MN-1,SpN-1) → M时为0 a.s→ ∞. 我们将其限制为一个子集,其概率为初始概率空间中的一个子集,且该子集上的收敛性保持不变,随机函数Φ(X(1)TN-1; ·)均匀连续,见(H-1)。存在一个序列(ξp,MN-1) 在SpN中标记值-1如此bθp,MN-1.- ξp,MN-1.→ 0,当M→ ∞. 随机函数Φ(X(1)TN的一致连续性-1; ·) 产生Φ(X(1)TN-1.bθp,MN-1) - Φ(X(1)TN-1.ξp,MN-1) → 0然后,我们根据假设(H-4)得出结论,Φ(X(1)TN-1.bθp,MN-1) → Φ(X(1)TN-1.θpN-1) 第2步。选择n≤ N- 2并假设收敛结果对n+1,N- 1,我们旨在证明这对n是正确的。我们记得bθp,Mnsolvesinfθ∈ΘpMXm=1Φp(X(m)Tn;θ) - Fn+1(bθp,M,Z(M),X(M)).我们引入θ的两个随机函数∈ Θp^vM(θ)=MMXm=1Φp(X(m)Tn;θ) - Fn+1(bθp,M,Z(M),X(M))vM(θ)=MMXm=1Φp(X(m)Tn;θ) - Fn+1(θp,Z(m),X(m)).函数vm清楚地表示为i.i.d.随机变量之和。此外,通过结合(12)和假设(H-1)和(H-2),我们得到了“supθ”∈Θp |Φp(XTn;θ)- Fn+1(θp,Z,X)|#≤ 2κE[1+| XTn | 2q]+E最大值`≥n+1(ZT`)< ∞.然后,随机函数序列vMa。s、 一致收敛于为θ定义的连续函数V∈ Θpbyv(θ)=E|Φp(XTn;θ)- Fn+1(θp,Z,X)|.还有待证明supθ∈Θp^vM(θ)- vM(θ)→ 0 a.s。

16
nandehutu2022 在职认证  发表于 2022-6-24 09:31:15
当M→ ∞.^vM(θ)- vM(θ)≤MMXm=12Φp(X(m)Tn;θ) - Fn+1(bθp,M,Z(M),X(M))- Fn+1(θp,Z(m),X(m))Fn+1(bθp,M,Z(M),X(M))- Fn+1(θp,Z(m),X(m))≤MMXm=1κ(1+| X(m)Tn | q)+最大值`≥n+1 | ZT`|Fn+1(bθp,M,Z(M),X(M))- Fn+1(θp,Z(m),X(m))我们使用了(12)和假设(H-1)和(H-2)。然后从引理4.9,我们可以写^vM(θ)- vM(θ)≤MMXm=1κ(1+| X(m)Tn | q)+最大值`≥k+1 | ZT`|NXi=n+1Z(m)Ti!N-1Xi=n+1nZ(m)Ti-Φp(X(m)Ti;θpi)≤Φp(X(m)Ti;bθp,Mi)-Φp(X(m)Ti;θpi)哦!≤MMXm=1Cκp(1+| X(m)Tn | 2q)+NXi=n+1Z(m)Ti!N-1Xi=n+1nZ(m)Ti-Φp(X(m)Ti;θpi)≤Φp(X(m)Ti;bθp,Mi)-Φp(X(m)Ti;θpi)哦!式中,C是仅取决于κp、n和n的一般常数。设ε>0。利用归纳假设和强大数定律,我们得到了lim supMsupθ∈Θp^vM(θ)- vM(θ)≤ lim SUPMMMMXM=1C(1+| X(m)Tn | 2q)+NXi=n+1Z(m)Ti!N-1Xi=n+1nZ(m)Ti-Φp(X(m)Ti;θpi)≤εo!≤ CE“(1+| XTn | 2q)+NXi=n+1 | ZTi |!n-1Xi=n+1{| ZTi-Φp(XTi;θpi)|≤ε}!#根据(H-3),我们推断limε→0{| ZTi-Φp(XTi;θpi)|≤ε} =0 a.s.,我们得出结论,a.s.^vM- vm一致收敛到零。我们已经证明了a.s.vm一致收敛于连续函数v,我们推断a.s.^vm一致收敛于v。从引理4.4,我们得出结论d(bθp,Mn,Spn)→ M时为0 a.s→ ∞. 我们限制在一个子集上,该子集的概率为初始概率空间中的一个子集,该子集上的收敛性保持不变,且随机函数Φ(X(1)TN-1; ·) 均匀连续,见(H-1)。Spnsuch中存在一个序列(ξp,Mn)m生成值,该序列bθp,Mn- ξp,Mn→ M时为0→ ∞.

17
nandehutu2022 在职认证  发表于 2022-6-24 09:31:18
随机函数Φ(X(1)TN的一致连续性-1; ·) 产生Φ(X(1)TN-1.bθp,Mn)- Φ(X(1)Tn;ξp,Mn)→ M时为0→ ∞.然后,我们根据假设(H-4)得出结论,Φ(X(1)Tn;bθp,Mn)→ Φ(X(1)Tn;θpn)当M→ ∞.既然已经建立了展开式的收敛性,我们就可以研究当M→ ∞.定理4.10假设假设(H-1)-(H-4)成立。然后,对于α=1,2和每n=1,N、 limM公司→∞MMXm=1Z(m)bτp,(m)nα=E[(Zτpn)α]a.s.证明。注意,E[(Zτpn)α]=E[Fn(θp,Z,X)α]并根据强大的大数定律limm→∞MMXm=1Fn(θp,Z(m),X(m))α=E[Fn(θp,Z,X)α]a.s。因此,我们必须证明FM=MMXm=1Fn(bθp,M,Z(M),X(M))α- Fn(θp,Z(m),X(m))αa、 s----→M→∞0.对于任何x,y∈ R、 α=1,2,| xα- yα|=| x- y | | xq-1+yq-1|. 使用引理4.9和| Fn(γ,z,g)|≤ 最大值≤j≤N | zj |,我们有|FM |≤MMXm=1Fn(bθp,M,Z(M),X(M))α- Fn(θp,Z(m),G(m))α≤ 2MMXm=1NXi=nmaxn≤j≤NZ(m)TjZ(m)Ti+1N-1Xi=nnZ(m)Ti-Φp(X(m)Ti;θpi)≤Φp(X(m)Ti;bθp,Mi)-Φp(X(m)Ti;θpi)哦!使用命题4.8,对于所有i=n,N- 1.Φp(X(1)Ti;bθp,Mi)- Φp(X(1)Ti;θpi)→ 0小时→ ∞. 然后,对于任何ε>0,lim supM|FM公司|≤ 2 lim SUPMMMMXM=1NXi=nmaxn≤j≤NZ(m)TjZ(m)Ti+1N-1Xi=knZ(m)Ti-Φp(X(m)Ti;θpi)≤εo!≤ 2E“NXi=nmaxn≤j≤NZTj公司ZTi+1N-1Xi=nnZTi公司-Φp(X(m)Ti;θpi)≤εo#其中,最后一个不等式遵循强大数定律,即E[maxn≤j≤NZTj公司] <∞. 我们得出结论,lim supM|FM |=0,通过让ε变为0并使用(H-3)。α=1的情况证明了该算法的强大数定律。请注意,解决最小化问题(10)混合了所有停止路径Z(m)bτp,(m)n,估计值smpmm不太可能=1Z(m)bτp,(m)对于1≤ n≤ N是无偏的。我们记得Up,Mn=MPMm=1Fn(bθp,M,Z(M),G(M))和Zτpn=Fn(θp,Z,X)。

18
何人来此 在职认证  发表于 2022-6-24 09:31:21
然后,E向上,Mn- E[Zτpn]=E“MMXm=1Fn(bθp,M,Z(M),X(M))- Fn(θp,Z(m),X(m))#= EhFn(bθp,M,Z(1),X(1))- Fn(θp,Z(1),X(1))i这里我们使用的是所有随机变量都具有相同的分布。5数值实验在本节中,我们将标准Longstaff-Schwartz方法和多项式回归给出的结果与第3节中描述的算法进行比较。这两种方法之间的唯一区别在于在每个时间步逼近条件期望的方式。这两种算法在Python中使用scikitlearn的多项式特征工具箱(Pedregosa等人[2011])实现多项式回归,并使用tensorFlow工具箱(Ababedit等人[2015])计算神经网络近似值。我们选择了欧洲和百慕大价格之间存在巨大差距的选项,这意味着确实存在一种早期执行策略,并且条件预期预测的准确性起着重要作用。关于实验中使用的算法的详细信息在所有实验中,我们已经运行了100次我们的算法来计算平均价格以及表格(±·)中括号之间表格中报告的价格估计器的置信区间的一半宽度。虽然置信区间可以提供信息,了解我们对价格的信任程度,但它完全压制了与条件期望近似值相关的偏差。请记住,(11)中给出的估计量不是无偏估计量,因此在比较结果时应格外小心。

19
能者818 在职认证  发表于 2022-6-24 09:31:23
请记住,较高的价格并不总是意味着更好的价格。对于激活函数σain(5),我们使用了由σa(x)=(x如果x≥ 00.3×x如果x<0,我们依靠ADAM算法在每个时间步对神经网络进行拟合,而柱形图是指我们通过整个数据集对网络进行训练的次数。注意,使用epochs=1对应于在线随机近似中使用的标准方法,其中每个数据只使用一次。我们在所有时间步中使用相同的神经网络,尤其是在时间步0<n<n时-1,我们以时间n+1,bθp,Mn+1的最佳参数作为训练算法的起点。由于这一明智的选择,将n<n的epochs设置为>1实际上是没有用的-1、我们在数值实验中观察到,在0<n<n时,多次传递所有数据并不能减少训练误差-1,而当在时间N处拟合第一个神经网络时,它确实有帮助- 这可以节省大量计算时间。为了学习每个行使日期的连续值,我们仅使用原始Longstaff-Schwartz算法Longstaff和Schwartz【2001】中已经建议的货币路径中的。这意味着优化问题(8)的定义必须更改为INFθ∈ΘpEΦp(XTn;θ)- Zτpn+1{ZTn>0}.经验对应物(10)需要以类似的方式进行调整。请注意,它不会改变算法的理论分析,但在数值上更有效。我们将在下一节中与原始Longstaff-Schwartz算法进行类似的比较。5.1 Black-Scholes模型中的示例-多维Black-Scholes模型为j∈ {1,…,d}dSjt=Sjt(rtdt+σjLjdBt),其中B是一个布朗运动,其值为Rd,σ=(σ,…)。

20
能者818 在职认证  发表于 2022-6-24 09:31:26
,σd)是波动性向量,假设在任何时候都是确定的和正的,Ljis是矩阵L的第j行,定义为相关矩阵Γ的平方根,由Γ给出=1 ρ . . . ρρ 1...............ρρ . . . ρ 1式中ρ∈] - 1/(d)- 1) ,1]确保Γ为正定义。5.1.1一维看跌期权方法的基准在研究更详细的数值示例之前,我们想在一维看跌期权上测试我们的方法。尽管这个例子可能很标准,但获得一个值得信赖的referenceprice并不是一件容易的事情。在本例中,我们将我们的方法与Lord等人[2008]中通过卷积方法计算的基准价格进行比较,并将其用作Fang和Oosterlee[2009]中的参考价格。他们的参考价格是11.987,其中所有数字都是准确的。L dlepochs=1个时代=5个时代=102 32 11.96(±0.07)11.97(±0.06)11.98(±0.057)2 128 11.96(±0.07)11.97(±0.056)11.97(±0.061)2 512 11.95(±0.076)11.95(±0.08)11.96(±0.071)4 32 11.93(±0.083)11.94(±0.09)11.96(±0.075)4 128 11.89(±0.145)11.93(±0.097)11.95(±0.081)4 512 11.86(±0.127)11.93(±0.096)11.94(±0.072)8 32 11.89(±0.12)11.93(±0.117)11.95(±0.096)8 128 11.88(±0.126)11.92(±0.11)11.94(±0.102)8 512 11.85(±0.129)11.9(±0.163)11.92(±0.111)表1:r=0.1、T=1、K=110、S=100、σ=0.25、N=10和M=100000的看跌期权。实际价格为11.987。我们可以从表1中看到,使用一个只有一个输入层、32个中间神经元和一个输出层的非常小的神经网络,这意味着激活函数只应用一次,已经产生了非常好的结果,相对精度大于1%。增加历代数有助于纠正条件期望的截断近似所产生的偏差。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-9 05:32