楼主: mingdashike22
996 31

[量化金融] 耦合重要性抽样和使用样本的多级蒙特卡罗 [推广有奖]

21
kedemingshi 在职认证  发表于 2022-5-9 07:14:40
因此,通过bλ′到λ的收敛?(见定理3.1),我们推导出v`(bλ`)1{bλ`∈五} 收敛到V(λ?)什么时候→ +∞. 此外,对于`足够大(尽管是随机的),1{bλ`/∈五} =0。因此,我们从Toeplitz引理推断hYniL-→ v(λ?)a、 利用Burkholder的sinequality和Jensen的不等式,结合ψ和性质(H-1)-ii的假设,我们得到,对于任何p>2,存在Cp>0,使得Lx`=1Eh | Yn`- 伊恩`-1 | pG]`-1i≤内容提供商PL`=1a`p/2LX`=1ap/2`----→L→∞其中(3.14)确保收敛到零。因此,我们可以应用定理A.1来实现证明。备注3.4。通常,人们可以重新缩放mγL(QL(bλ,…,bλL)- 通过v(λ?)的估计得到E[ψ(XT)]得到方差为1的中心极限定理。由于定理3.1,我们知道v`,N`(^λ`)是v(λ?)的收敛估计我们可以很容易地从定理3.3的证明中推断出,在它的假设下Nρ0,LNρ0,LNρ0,LXk=1(ψ(~XmT)E+(~W0,k,λ))-Nρ0,LNρ0,LXk=1ψ(~XmT)E+(~W0,k,λ)+LX`=1N-1`(米)- 1) 商标`~v`,N`(λ`)-Ξ`,N`-----→L→+∞v(λ?)。请注意,数量v`、N`和ΞN`的定义如(3.3)和(3.4)所示,但使用波浪采样路径(~X`,k)和(~W`,k)。大括号这一术语可以在多层蒙特卡罗过程中在线计算,可用于建立置信区间。v(λ?)的任何收敛估计量当然可以使用,但这一方法的优点是,对于任意数量的L级,它不仅是渐近的,而且与多级蒙特卡罗估计的真实方差相对应。4.双指数序列的强大数定律在这一节中,我们证明了用于多级方法收敛的两个关键结果。当两个指数趋于一致时,我们解决了双指数随机序列经验平均值的收敛问题。提议4.1。

22
何人来此 在职认证  发表于 2022-5-9 07:14:44
设(Xn,m)n,mbe一个向量值随机变量的双索引序列,使得对于所有n,E[Xn,m]=xm和limm→+∞xm=x。我们定义Xn,m=nPni=1Xi,m。假设以下两个假设满足(H-3)i.supnsupmnVarXn,m< +∞.二、supnsupmVar(Xn,m)<+∞.然后,对于所有的增函数ρ:N→ N、 Xn,ρ(N)-→ x a.s.和Lwen n→ ∞.从这个命题中,我们可以通过提取一个bespokesubsequenceCorollary 4.2,很容易地推断出以下推论。假设(Xn,m)n,mbe是满足命题4.1假设的向量值随机变量的双索引序列。然后,对于任何严格递增函数ξ:N→ N、 Xξ(N),N-→ x a.s.和Lwen n→ ∞.命题4.1的证明。这一结果的证明与[28,TheoremIV.1.1]中的证明非常相似。我们介绍了序列(Yi,m)i,mde由Yi定义,m=Xi,m- xm,它的满意度[Yi,m]=0。作为林姆→∞xm=x,证明Yn,ρ(n)是有效的-→ 0 a.s.条件(H-3)-i表示L收敛到0。我们介绍了由Zn定义的序列(Zn,m),m=sup{“Yk,m: N≤ k<(n+1)}。设k为n≤ k<(n+1),然后“Yk,m≤ N-2.N艾琳,m+kXi=n+1 | Yi,m|,锌,m≤\'\'Yn,m+n(n+1)Xi=n+1 | Yi,m |。然后,E[Zn,m]≤ E[\'Yn,m]+(n+1)Xi=n+1E[|Yi,m |]n+2E[艾琳,m|易,m |]n!+2(n+1)Xi,j=n+1;i6=jE[|Yj,m | Yi,m |]n.让κ>0表示假设(H-3)中涉及的上界的最大值。利用柯西-施瓦茨不等式,我们得到[Zn,m]≤κn+κ((n+1)- n) n+2κ((n+1)- n) n+2κ((n+1)- n) n≤κn+κ(2n+1)n+2κ(2n+1)n+2κ(2n+1)n。因此,对于任何函数ρ:n→ N、 E[Zn,ρ(N)]≤ Cn-2其中C>0是一个常数,与ρ无关。因此,我们有P(Zn,ρ(n)≥ N-1/4) ≤ Cn-3/2. 这个不等式意味着使用BorelCantelli引理,对于足够大的n,ρ(n)≤ N-1/4a。s、 这使得a.s.收敛到0。提案4.3。

23
kedemingshi 在职认证  发表于 2022-5-9 07:14:49
设(Fn,m)n,mbe在连续函数集中具有值的随机变量的双索引序列,即对于所有n,m,Fn,m:Ohm -→ 丙(右)。此外,我们假设存在一系列确定性函数(fm)ms.t.对于所有的ne[Fn,m]=fm对于所有的m。我们定义Fn,m=nPni=1Fi,m。假设以下两个假设满足(H-4)以下标准之一。序列(fm)M逐点收敛到某个连续函数f.ii。对于任意紧集W,序列(fm)mc局部一致地收敛于某个函数f(H-5) i.supnsupmnVar路好的∈WFn,m(x)< +∞.二、supnsupmVar(supx∈W|Fn,m(x)|)+∞.(H-6)对于所有y∈ Rd,limδ→0supnsupmEhsup | x-y|≤δ| Fn,m(x)- Fn,m(y)| i=0。然后,对于所有函数ρ:N→ N、 随机函数序列Fn,ρ(N)局部一致收敛于局部连续函数f。备注4.4.o当对于每个固定的m,序列(Fn,m)是独立的且分布相同时,假设(H-6)由Y∈ Rd,limδ→0lim supmE“sup | x-y|≤δ| F1,m(x)- F1,m(y)|#=0,假设(H-5)-ii意味着(H-5)-i.o如推论4.2所示,对于任何严格递增函数ξ:N→ N、 序列Fξ(N)将a.s.局部一致收敛到局部连续函数F.Proof。我们可以应用命题4.1,来推断a.s.Fn,ρ(n)逐点收敛于函数f。如果我们还不知道f是连续的,那么由于(H-5)-ii,我们可以应用勒贝格定理来推断函数f是连续的。序列fmto f(见(H-4)-ii)的一致收敛性证明了函数f是连续的。设W是Rd的一个紧集,我们可以用中心(xk)和半径(rk)K的有限个开球覆盖W,即Wk=B(xk,rk)和W=∪Kk=1Wk。我们想证明这一点∈WFn,ρ(n)(x)- f(x)a、 美国。-----→N→+∞0.我们写UPX∈WFn,ρ(n)(x)- f(x)=KXk=1supx∈工作Fn,ρ(n)(x)- f(x).

24
何人来此 在职认证  发表于 2022-5-9 07:14:52
(4.1)我们将每个条款拆分∈工作Fn,ρ(n)(x)- f(x)= 好的∈工作Fn,ρ(n)(x)- Fn,ρ(n)(xk)+ 好的∈Wk | f(x)- f(xk)|+Fn,ρ(n)(xk)- f(xk)(4.2)设ε>0。其想法是选择足够小的半径,以确保每个项由ε的函数控制。现在,我们要让这个想法更加精确。对于所有k=1,K、 使用逐点收敛,最后一项可以小于ε/K,而对于n,则大于某些nk。为了所有人≥ 马克斯≤KNk和所有1≤ K≤ KFn,ρ(n)(xk)- f(xk)≤ ε/K.函数f是连续的,它在每一个工作上都是一致连续的。如果我们选择的WK半径足够小(我们可能需要增加K),我们可以确保所有1≤ K≤ K supx∈Wk | f(x)- f(xk)|≤ ε/K.在(4.2)的r.h.s中的第一项值得更多关注∈工作Fn,ρ(n)(x)- Fn,ρ(n)(xk)≤nnXi=1supx∈工作Fi,ρ(n)(x)- Fi,ρ(n)(xk). (4.3)现在,每1≤ K≤ K、 我们想把命题4.1应用于随机变量序列好的∈Wk | Fn,m(x)- Fn,m(xk)|n、 m.利用Minkowski的不等式,假设(H-3)显然是满足的。让我们定义序列(Yn,m)n,mbyYn,m=supx∈Wk | Fn,m(x)- Fn,m(xk)|- E“supx∈Wk | Fn,m(x)- Fn,m(xk)|#,满足E[Yn,m]=0和命题4.1的假设。因此,它产生了thatlimn→+∞nnXi=1supx∈工作Fi,ρ(n)(x)- Fi,ρ(n)(xk)- E“supx∈工作Fn,ρ(n)(x)- Fn,ρ(n)(xk)#= 0.(4.4)从(H-6)中,我们知道,如果选择的WKs足够小,则supnE“supx”∈工作Fn,ρ(n)(x)- Fn,ρ(n)(xk)#≤ ε/K.(4.5),然后,结合(4.3)、(4.4)和(4.5)得到supx∈工作Fn,ρ(n)(x)- Fn,ρ(n)(xk)≤ ε/K.我们把这个不等式加在(4.2)上,并从(4.1)推导出,对于足够大的n,supx∈W`Fn,ρ(n)(x)- f(x)≤ 3ε.5数值试验5。1实际实现我们的方法巧妙地将著名的多级蒙特卡罗技术与重要的采样相结合,以减少方差。

25
mingdashike22 在职认证  发表于 2022-5-9 07:14:55
经典的方法是考虑Ehψ(XT(θ))e的多级近似-θ·WT-|θ| t选择θ的值,使多层蒙特卡罗中心极限定理的方差最小化(见[4])。交感变异涉及两个方面ψ和(3.6)中给出的过程U。因此,多级蒙特卡罗重要性抽样的经典方法需要比函数ψ和底层过程X更多的知识,因此排除了任何类型的自动化。我们选择了一种完全不同的方法,允许每个级别有一个重要的采样参数,这使我们能够独立于其他级别处理每个级别。在每个级别中,我们使用[23]中的样本平均近似值来计算最佳重要采样参数,该参数被定义为最小化当前级别方差的参数。从定理3.3中,我们知道这种方法是最优的,因为我们的多级估计器ql(^λ,…,^λL)满足中心极限定理,其极限方差由inf v给出,其中由(3.5)定义的vde是标准多级蒙特卡罗估计器的方差。我们设法提供了一种无需计算就能达到最优极限方差的算法ψnorse过程U,因此我们的方法可以完全自动化。^λ′的计算。参数^λ`被定义为强凸极小化问题的解。最小化步骤由Newton–Raphson算法执行,以v`,N`。计算所需的样本v`,N`和v`,N`在开始牛顿-拉斐逊过程之前,一次生成一次,然后全部生成,这样在梯度下降的所有迭代中使用相同的样本。这一特性特别适用于优化步骤,一旦数字变大,可能会使算法对内存的要求很高。

26
nandehutu2022 在职认证  发表于 2022-5-9 07:14:59
由于参数λ不包含在函数ψ中,所有的量ψ(Xm`T,`,k)-ψ(Xm)`-1T,`,k)对于k=1,N`可以在启动最小化算法之前进行预计算,这使我们能够节省大量计算时间。牛顿-拉斐逊算法的效率在很大程度上取决于v`,N`函数的凸性。正如[23]中已经指出的,Hessianmatrix的最小特征值v`,N`基本上是N`PN`k=1m`(m-1) Tψ(Xm`T,`,k)- ψ(Xm)`-1T,`k)E+(W`,k,λ),它可以变得非常小,然后与具有最强可能凸性的意愿相冲突,以加速牛顿-拉斐逊算法。这一困难通过注意到平等而得以避免v`,N`(^λ`)=0可以写成^λ`T-N`PN`k=1m`(m-1) TWk,`Tψ(Xm`T,`,k)- ψ(Xm)`-1T,`k)E-λ`·WT,`,kN`PN`k=1m`(m-1) Tψ(Xm`T,`,k)- ψ(Xm)`-1T,`k)E-λ`·WT,`,k=0。因此,^λ`可以解释为u`,N`withu`,N`(λ)=|λ| T+logN`N`Xk=1m`(m- 1) Tψ(Xm`T,`,k)- ψ(Xm)`-1T,`k)E-λ·WT,`,k.u`,N`的海森矩阵由下式给出:u`,N`(λ)=T Iq+N`PN`k=1m`(m)-1) TWk,`T(Wk,`T)*ψ(Xm`T,`,k)- ψ(Xm)`-1T,`k)E-λ·WT,`,kN`PN`k=1m`(m-1) Tψ(Xm`T,`,k)- ψ(Xm)`-1T,`k)E-λ·WT,`,k-N`PN`k=1m`(m-1) TWk,`Tψ(Xm`T,`,k)- ψ(Xm)`-1T,`k)E-λ·WT,`,kN`PN`k=1m`(m-1) Tψ(Xm`T,`,k)- ψ(Xm)`-1T,`k)E-λ·WT,`,kN`PN`k=1m`(m-1) TWk,`Tψ(Xm`T,`,k)- ψ(Xm)`-1T,`k)E-λ·WT,`,k*N`PN`k=1m`(m-1) Tψ(Xm`T,`,k)- ψ(Xm)`-1T,`k)E-λ·WT,`,k.(5.1)根据柯西-施瓦茨不等式,很明显u`,N`(λ)是T Iq的下界,其中不等式是从对称矩阵的阶意义上理解的。算法描述。我们的算法分为两个步骤:计算最优重要性抽样测度的最小化步骤和实际提供E[ψ(XT)]估计量的MLMC步骤。这两个步骤中使用的样本是独立的。

27
mingdashike22 在职认证  发表于 2022-5-9 07:15:03
为了清晰起见,我们在算法5.1.1生成XmT,0,1,…,中提供了全局方法的伪代码,XmT,0,Ni。i、 d.遵循xmt定律的样品取决于其他区块。2解决u0,N(^λ)=0,使用牛顿-拉斐逊算法。对于`=1:ldo4生成(Xm`T,`,1,Xm`-1T,`,1),(Xm`T,`N`,Xm`-1T,`,N`)i.i.d.样品遵循(Xm`T,Xm`定律`-1T)独立于其他模块。5.解决通过使用牛顿-拉斐逊算法,u`,N`(^λ`)=0。6 end7有条件地在^λ上,生成XmT,0,1(^λ),~XmT,0,N(^λ)i.i.d.具有独立于其他块的XmT(^λ)定律的样本。波浪形和非波浪形的数量在条件上是独立的。8对于`=1:ldo9有条件地在^λ`,生成(~Xm`T,`,1(^λ`),~Xm`-1T,`,1(^λ`)`,(~Xm`T,`,N`(^λ`),~Xm`-1T,`,N`(^λ`)i.i.d.具有(Xm`T(^λ`),Xm定律的样品`-1T(λ`)独立于其他块。波浪形和非波浪形数量在条件上是独立的。10 end11计算多级重要性抽样估计器ql(λ,…,λL)=NNXk=1ψ(~XmT,0,k(λ))-(W0,k,^λ)+LX`=1N`N`Xk=1ψ(~Xm`T,`,k(λ`)- ψ(Xm)`-1T,`,k(λ`)E-(~W`,k,^λ`)。算法5.1:多级重要性抽样(MLIS)复杂性分析。在这一段中,我们将重点讨论层数对算法总体计算时间的影响。标准多级估计器的计算成本与Tcml=LX`=0N`m`=m2L+1L成正比。我们算法的全局代价是(^λ``和标准多级估计器cmlis=LX`=0N`(m`+3K`)+LX`=0N`m`的计算代价之和,其中K`是牛顿-拉斐逊算法近似^λ`的迭代次数,因子3对应于以下事实:u`,N`和u`,N`基本上归结为三个蒙特卡洛求和。

28
mingdashike22 在职认证  发表于 2022-5-9 07:15:06
实际上,K`≤ 5.因为问题是强凸的。因为在优化步骤的每次迭代中使用相同的随机变量,所以必须存储它们,这使得我们的算法的内存占用与N `成正比。因此,如果我们选择N`=N`m`m`+15,我们的MLIS算法的总成本应该大约是标准多级估计器成本的两倍。与直接使用N\'相比,选择N\'减少了用于近似第一级方差的样本数量。然而,当L增大时,对于`的较小值,N`可能会变得非常大,从而导致更大的内存占用(参见第5.1节)。为了不破坏算法的可伸缩性,N`的值必须根据计算机上可用的内存量保持合理。例如,强制执行N`≤ 在8GB内存的计算机上,500000是合理的。无论如何,非常清楚的是,对方差v’isenough进行相当好的近似,并运行一个最终精确的估计,将导致计算时间的巨大浪费。监控v`,N`的收敛性将真正有助于为N`.选择敏感值。5.2与现有算法相比,在定理3.3中,我们得到了与[5]相同的极限方差,其中作者将LMC应用于重要性抽样(见(1.4)),而不是像我们这样反之亦然。重要采样和MLMC的耦合方式实际上在收敛速度方面并不重要,但在实践中确实重要。首先,我们的方法通过在每个级别上解决一个优化问题而不是全局优化问题来保持不同级别的独立性。因此,在标准MLMC设置中,不同水平的贡献是相互独立计算的。

29
能者818 在职认证  发表于 2022-5-9 07:15:09
其次,我们使用样本平均近似与牛顿-拉斐逊算法相结合来计算最佳重要参数,而在[5,6]中,作者依赖于托卡斯特近似,这是已知的需要适当调整以有效地在实践中收敛。我们的方法继承了牛顿算法用于具有可处理Hessian矩阵的强凸问题时的良好收敛性。正如[23]中已经提到的,这种方法更稳定、更健壮。5.3实验设置我们比较了四种方法的均方根误差(RMSE):crudeMonte Carlo方法(MC)、文献[23]中提出的自适应Monte Carlo方法(MC+IS)、多级Monte Carlo方法(ML)和我们的重要抽样多级Monte Carlo估计器(ML+IS)。我们记得,RMSE由RM SE=pBias+方差定义。在偏差的计算中,真实值被L=9级的多级蒙特卡罗估计值取代,从而得到非常精确的近似值。更不用说,图表上显示的CPUTIME同时考虑了搜索最佳参数的时间和第二阶段蒙特卡罗的时间,无论是多级还是非多级。5.4多维杜皮尔框架我们认为-多维局部波动率模型,其中在风险中性度量下,每种资产Si的动态应通过Dsit=Sit(r dt+σ(t,Sit)dWit),S=(S,…,Sd)给出,其中W=(W,…,Wd),每个分量是一个标准布朗运动,其值为r。对于数值实验,假设W的协方差结构由hWi开始,Wjit=ρt1{i6=j}+t1{i=j}。我们假设ρ∈ (-D-1,1),确保矩阵C=(ρ1{i6=j}+1{i=j})1≤i、 j≤不确定的定义。设L表示Cholesky分解C=LL中涉及的下三角矩阵*. 在时间网格上模拟W。

30
何人来此 在职认证  发表于 2022-5-9 07:15:12
<tN,我们需要d×N独立的标准正态变量和集合WTWTWT。。。WtN-1WtN=√TL0 0。0√热释光√T- TL0。0........................√tN-1.- tN-2L 0√热释光√T- tL。√tN-1.- tN-2L√tN- tN-1LG、 其中G是Rd×N中的正态随机向量。到期时间和利率分别表示为T>0和r>0。我们选择的局部波动函数σ的形式为σ(t,x)=0.6(1.2- E-0.1吨-0.001(xert-s) )e-0.05√t、 (5.2)s>0。我们知道变量(t,x)和(t,K)之间存在二元性。因此,为了让公式(5.2)有意义,我们应该选择s等于标的资产的现货价格,这样微笑的底部就位于远期货币。我们参考图1对微笑进行了概述。图1:局部波动率函数篮子期权我们考虑的是支付形式为(Pdi=1ωiSiT)的期权- K) +其中(ω,…,ωd)是代数权重向量。对于类似看跌期权,行权价值K可以取负值。毫不奇怪,我们可以在图2中看到,多水平估计总是优于经典蒙特卡罗估计。对非常小的精确估计量进行比较可能毫无意义,因为很难可靠地测量短执行时间,在这种情况下,估计量的经验方差甚至比估计量本身更不准确。请注意,对于256个样本的蒙特卡罗估计量,最右侧的点分别由L=2的多级估计量获得。对于介于0.1和0.005之间的RMSE,我们的MLIS估计器比标准ML估计器快10倍。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-1-18 03:43