楼主: 能者818
1713 33

[量化金融] 期权定价的高阶紧致差分格式 [推广有奖]

21
可人4 在职认证  发表于 2022-5-6 03:42:31
我们计算由等式(7)给出的变换问题解的近似值,然后将其转换回原始变量。对于相对的l-和l∞-误差图参考溶液在细网格上计算,href=0.003125。对于相对l-错误,我们使用Kuref- UklkUrefkland为l∞-我们使用Kuref的错误- Ukl∞,式中,Urefdenotes表示参考解,U表示近似值。我们预计错误会像O一样香港对于某些k,如果我们将误差的对数与网格点数量的对数进行对比,则该对数图的斜率给出了该模式的数值收敛顺序。由于转化问题的初始条件并非处处光滑,我们观察到,对数图并不总是产生一条直线,例如,对于普通选项。对于平滑的初始条件,err OR的对数曲线图给出了一条几乎为直线的曲线,例如功率卖出期权。下图所示的数值收敛顺序始终计算为误差点线性最小二乘的斜率。为了进行比较,我们还绘制了标准离散化(SD)的结果,这意味着在(7)和(x)中使用了标准中心差异运算符=^Smax-^Smaxx+^Smin。通过这种方式,这里考虑的所有离散化都在同一个空间网格上运行,可以进行有意义的比较。

22
能者818 在职认证  发表于 2022-5-6 03:42:34
我们使用τ=0.4h,尽管我们注意到数值收敛阶对抛物线网格比选择的依赖性很小。这与我们在下文第5.3.10110210310节中报告的数值稳定性研究结果一致-810-610-410-x中的网格点数量-方向相对l2误差ζ=2.5(3.87阶)ζ=5(4.29阶)ζ=7.5(4.11阶)ζ=10(3.75阶)SD(2.06阶)图3相对l误差Heston模型ρ=010110210310-510-410-310-210-x中的网格点数量-方向绝对l∞ 误差ζ=2.5(3.73阶)ζ=5(4.20阶)ζ=7.5(3.59阶)ζ=10(3.00阶)SD(1.72阶)图4绝对l∞-误差Heston模型ρ=0图3和图4显示了相对l-和l-的对数图∞-关于Heston-Hull-White模型(ρ=0)中参考解的近似误差,适用于g点数量不同且z oom不同的欧式Putoption。这样就可以观察到变焦的影响。在这种情况下,理论上的一致性顺序是四。从相对l-误差来看,我们观察到数值收敛阶在3.75到4.29之间变化,这与所有缩放的理论阶非常吻合。我们还可以看到,收敛阶上升,直到ζ=5,然后再次下降,所以ζ≈ 5似乎是最好的选择。当使用ζ=10时,始终获得最低的相对l误差。实践中更有用的错误可能是l∞-误差,因为它显示了参考解和近似值之间的最大差异。当查看图4时,我们会看到∞-误差和l误差的行为非常相似。收敛阶从3.00到4不等。20,同样具有ζ的最佳顺序≈ 5.

23
nandehutu2022 在职认证  发表于 2022-5-6 03:42:37
当使用最小网格时,ζ=5和ζ=10的误差几乎相同,但对于更粗糙的网格,ζ=10的误差显然也是最低的。对于这两种误差图,我们观察到,当观察粗糙网格时,变焦的影响最大,因为随着变焦的增加,误差会显著减小。与标准离散相比,HOC离散具有显著更低的误差值和更高的收敛阶。总体而言,选择ζ≈ 5对于Heston-Hull-White模型(ρ=0),就收敛阶而言,似乎是最佳选择。10110210310-810-610-410-x中的网格点数量-方向相对l2误差ζ=2.5(3.78阶)ζ=5(4.14阶)ζ=7.5(3.86阶)ζ=10(3.40阶)SD(2.06阶)图5相对l误差Heston模型ρ=- 0.110110210310-510-410-310-210-x中的网格点数量-方向绝对l∞ 误差ζ=2.5(3.63阶)ζ=5(4.09阶)ζ=7.5(3.59阶)ζ=10(3.00阶)SD(1.71阶)图6绝对l∞-误差Heston模型ρ=- 0.1在图5和图6中,我们绘制了相对l-和l∞-Heston模型中的欧式看跌期权错误,ρ=-0 .1. 这意味着理论上的一致性顺序只有两个,见等式(22)。我们在图5中观察到,相对l误差在3.40到4.14之间变化。这些值远远高于理论上的一致性顺序。事实上,使用版本3的dis-cretisation方案,我们获得了一个接近使用Heston-Hull-White模型的收敛阶。相对l误差的阶数在ζ=5之前再次上升,然后下降,但在使用ζ=10时,其值最低。l∞-图6中的错误行为类似于l∞-Heston Hull Whitemodel中存在错误。

24
nandehutu2022 在职认证  发表于 2022-5-6 03:42:40
这里的收敛阶值在3.00到4.09之间变化,ζ=5时的t值最高。使用最细网格时,使用ζ=10和使用ζ=5时的误差差异也非常小。在任意一个误差图中增加缩放的最大影响可以再次在网格周围看到,因为增加缩放会显著降低误差。与Heston-Hull-White模型类似,当选择ζ=5时,收敛或阶结果最好。对于麻烦者,我们可以再次看到,与标准离散相比,本质上高阶紧致离散具有显著更低的误差值和更高的收敛阶。10110210310-710-610-510-410-310-210-1 x中的网格点数量-方向相对l2误差ζ=2.5(3.55阶)ζ=5(3.84阶)ζ=7.5(3.44阶)ζ=10(2.92阶)SD(2.05阶)图7相对l误差Heston模型ρ=- 0.410110210310-510-410-310-210-x中的网格点数量-方向绝对l∞ 误差ζ=2.5(3.42阶)ζ=5(3.86阶)ζ=7.5(3.59阶)ζ=10(2.98阶)SD(1.68阶)图8绝对l∞-误差Heston模型ρ=- 0.4图7和图8显示了相对l-和l∞-Heston模型中的欧式看跌期权错误,ρ=-0.4. 误差的理论一致性顺序又是两个。在图7中,我们可以看到相对l-误差的收敛顺序从2.92到3.84,这明显高于理论顺序。对于较小的ρ值,收敛阶稍有恶化,但仍然比标准偏差的收敛阶好。正如预期的那样,当使用ζ=5时,最佳收敛阶将达到d,它仍然非常接近于4。从图8中,我们发现l∞-误差随着ρ值的降低,c的收敛阶降低。

25
大多数88 在职认证  发表于 2022-5-6 03:42:46
收敛阶在2.98到3.86之间变化,其中ζ=5再次导致最高值,该值仍然接近4,因此高度高于c onsistencyerror阶的理论值。在前面的两个例子中,zoom在相对l-error和l-error上都有最高的优势∞-使用非常粗糙的网格时出错。对于相对l误差和THL∞-错误我们可以再次看到,与标准离散化相比,本质上的高阶紧致格式具有显著更低的错误值和更高的收敛阶。通过图3至图8,我们恢复了第3.2节中给出的数值观察结果,并证实了第3版导致了高阶紧致格式。对于所有讨论的欧式看跌期权,当使用ζ=5时,收敛阶的最佳结果是。该值似乎在K附近的误差和缩放的其他区域之间提供了良好的平衡。尽管该方案仅对Heston-Hull-White模型(ρ=0)具有四阶理论一致性,但应用表明,对于ρ6=0的Heston模型,我们也实现了接近四阶的数值收敛。我们现在考虑的是赫斯顿模型中的欧洲电力看跌期权。纯香草欧式果酱的唯一不同之处在于,最终的条件是转化后的功率p,见(6),转化后的功率p为(34)。

26
nandehutu2022 在职认证  发表于 2022-5-6 03:42:49
网格以与上面类似的方式移动,避免XKA成为网格点。10110210310-810-710-610-510-410-310-2 x中的网格点数量-方向相对l2误差ζ=7.5(3.85阶)ζ=10(3.99阶)ζ=12.5(4.08阶)ζ=15(4.08阶)SD(2.33阶)图9相对l误差功率选项赫斯顿模型ρ=0,p=210110210310-810-710-610-510-410-310-2 x中的网格点数量-方向误差相对l2误差ζ=7.5(3.22阶)ζ=10(3.30阶)ζ=12.5(3.36阶)ζ=15(3.40阶)SD(2.33阶)图10相对l误差功率选项赫斯顿模型ρ=-0.4,p=2可以清楚地看到,在图9和图10中,表示为ρ=0和ρ=-0.4当p=2时,对数-对数图中的直线比p=1的普通看跌期权中的直线更接近s直线,这可以用转换问题的初始条件更平滑来解释。对于功率p=2的Heston Hull White(ρ=0)功率输出,相对l误差的收敛阶为3.85到4.08,收敛阶为3.22到3。40用于Heston模型中的功率,ρ=-0.4,其中订单随着缩放强度的增加而增加。Heston模型中ρ=0和ρ=-考虑到理论顺序的差异,0.4不是很大。Sowe可以再次看到ρ的收敛顺序=-0.4远远超出了理论上的两个数量级。

27
nandehutu2022 在职认证  发表于 2022-5-6 03:42:52
我们可以看到ρ=0的HOC格式以及ρ=-0.4在误差值和收敛阶方面显著优于s标准离散化。10110210310-810-710-610-510-410-310-2 x中的网格点数量-方向相对l2误差ζ=7.5(4.04阶)ζ=10(4.05阶)ζ=12.5(4.10阶)ζ=15(4.10阶)SD(2.07阶)图11相对l误差功率选项赫斯顿模型ρ=0,p=310110210310-810-710-610-510-410-310-2 x中的网格点数量-方向相对l2误差ζ=7.5(3.50阶)ζ=10(3.56阶)ζ=12.5(3.63阶)ζ=15(3.69阶)SD(2.08阶)图12相对l误差功率选项赫斯顿模型ρ=-0.4,p=3在图11和图12中,我们可以看到Heston-Hull-White模型(ρ=0)和带有ρ=-当p=3时为0.4。图之间的差异并不像理论一致性误差顺序所显示的那样大。即使在Heston模型中ρ=-0.4该方案的理论一致性误差为二阶,根据缩放强度ζ,其收敛阶为3.50至3.69,而在ρ=0的Heston-HullWhite模型中,理论一致性阶为四阶,数值范围为4.04至4。10.在这两种情况下,标准离散化在收敛顺序和误差值方面都优于标准离散化。5.3数值稳定性研究在均匀网格的特殊情况下,即φ(x)=x,此处开发的方案简化为[DF12a]中给出的高阶紧凑方案,其中证明了ρ=0的无条件(冯·诺依曼)稳定性。[DF12b]中进行的额外稳定性分析表明,对于一般的参数选择,该模式也是无条件稳定的。

28
可人4 在职认证  发表于 2022-5-6 03:42:55
对于预先发送的非n均匀g rid模式,类似的冯·诺依曼分析(分析或数值分析)似乎遥不可及,因为放大因子的表达式非常强大,由两位数变量中的高阶多项式组成。为了验证通用参数格式的稳定性,我们进行了额外的数值稳定性测试。我们注意到,在我们的数值实验中,我们观察到了一种稳定的行为。我们计算了抛物线网格比c=τ/h表示网格宽度h。绘制平面内相关的相对l-范数误差,应允许我们根据c或高单元雷诺数(大h)发生的振荡来检测稳定性限制。[DF12a,DFJ03]中也使用了这种数值稳定性研究方法。我们仅在Heston模型中展示了欧洲Put选项的结果,因为功率在初始条件下会发生变化,并给出类似的结果。对于我们的稳定性图,我们使用c=k/10,k=1,10,以及x方向上网格点的降序序列,从六个网格点开始(从x开始)∈ [0,1]它跟在h后面≤ 0.2),并将每个步骤的点数加倍(h减半)。使用缩放参数ζ=5。h( t) /h2 0.01 0.02 0.03 0.04 0.050.20.40.60.8102468x 10-4图13ρ=0h时相对l误差的稳定性图( t) /h2 0.01 0.02 0.03 0.04 0.050.20.40.60.8102468x 10-4图14ρ=-0.4图13和14显示了Heston Hull White模型(ρ=0)和Heston模型(ρ=0)的稳定性图-0.4. 我们观察到,抛物线网格比c对相对l误差的影响很小,相对误差不超过8×10-4作为两个稳定性图的值。

29
能者818 在职认证  发表于 2022-5-6 03:42:58
我们可以推断,c上似乎没有一个稳定的条件。随着h值的增加,也会导致更高的单元雷诺数,误差会逐渐增大,数值解不会出现振荡。ρ=-0.1看起来类似(此处未显示),也不表示任何条件c或h。6结论我们提出了新的高阶比较差分方案,用于非均匀网格上的随机波动下的期权定价。所得到的方案是四阶精度的空间和二阶精度的时间相关性消失方案。在我们的数值收敛性研究中,我们还获得了期权定价中典型的非零相关性和非光滑性的高阶数值收敛性。在所有的数值实验中,一个比较标准的二阶离散化显著优于二阶离散化。我们已经进行了数值稳定性研究,这似乎表明该方案是无条件稳定的。在我们的数值实验中,我们观察到所有参数的选择都是稳定的。考虑将该方案扩展到美国n期权定价问题是很有意思的,因为早期行使期权是可能的。在这种情况下,我们必须解决一个自由边界问题。它可以写成一个线性互补问题,可以用这里给出的格式离散化。为了保持高阶收敛性,需要将高阶离散化与自由边界的高阶分辨率结合起来。

30
大多数88 在职认证  发表于 2022-5-6 03:43:01
这个扩展超出了本文的范围,我们将其留给未来的研究。版本2和版本4的系数在本节中,我们给出版本2和版本4的半离散方案的系数。我们不包括版本1的系数,因为该版本在数值研究中总是导致二阶数值收敛误差。A.1第2版的系数当用中心差分算子在x方向和y方向离散方程(21)时,我们得到第2版方案的以下系数-1,j±1=vyаxаxx12h±yаxκ12h±аxκθr12vy-vy~nx12h-vy~nxx24小时±y k xκ+аxr12h±аxxκаxθ24v-vy k x24h±k xr24y~nxr12yyаxxκаxκПxθ12hvνxκθ24vνxκr12v+ρνx(vy)-r) ~nxx±vyаxаxxxv k x12yvyаxx±vаx24yνxκ±vy~nx4h±vy x(vy-r) 6h±vyаxаxx12h+аxκ(θ- vy)6hvi+ρh-vy~nx6hvаxаxx-vy k x k xx12hi,^Ki+1,j±1=-^Ki-1,j±1±y~nxκ6h-vy~nx6hκ~nxθ6hv±ρ~nx(vy-r) 3h±ρvy k x k xx6h-ρvy~nx3h,^Ki,j±1=-vyхx2h±yхxκ3hκПxθ3hv+v k x6yy k xhаxxκy k xhκаxx-νxκθ4vy-νxκθ6vy-vyаxаxxxh~nxκ6yhаxκаxxθr4vy-~nx~nxxr-v k x12y-yüxκ6vνxhκ12v+vyаxаxx+vyаxаxx±- hаxκаxxxθ8v+vyаx6h+аxκρvаxаxx±hаxκ(θ)- vy)~nxx4vyνx(vy)-r) 3hvyаxаxx6h+ ρvy~nx3h,^Ki±1,j=h k xxv12yhаxаxxxrhаxv12y±vyаx6h±vyаxаxx6h+аxr±hаxxr+vyаxxx-v k x12y±hаxxvаx24yhvyаxаxx-vyаx±hаxκаxxθ24vy+vyаxаxx±hvyаxxxxhvyаxx+vаx6y-~nxаxxr+κаxh k xκ±vyаxx6h±аxhv24yhаxκаxx±hаxаxxr-6vyκxvyθ~nxh~nxxr6vy-κПxθ12vy±hvy k xаxxx~nxr3hhvyаxxаxxx16аx-vyаx3h+ρhvyаx3hvyаxаxx6hi+ρvаx+vаxаxxhаxxvаxhv~nxxh~nx(vy)-r) ~nxx6y-νx(vy)-r) 6y±~nxκ(θ)- vy)3hv和^Ki,j=-κ~nx+vy~nx~nxxx-vyаxаxx-~nxκ+v k x6y-v k x6y-vyаxxx+2vyаx3h+vyаxh-2аxκθ3v+аxаxxr+аxаxxr+аxκθ2vy+yаxκ3v-~nxr-vyаxаxx-vyаxаxx-κПxθ2vy-vаx3y+аxκθ3vy+vyаx+vy xr3vy+ρ[-vаxаxx-v~nx-vаxаxx+аx(vy-r) 3y]- ρ2vy~nx3h,其中^Ki,jis是Ui的系数,j(τ)。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-2 10:18