楼主: 何人来此
980 34

[量化金融] 百慕大期权定价的神经网络回归 [推广有奖]

  • 0关注
  • 4粉丝

会员

学术权威

78%

还不是VIP/贵宾

-

威望
10
论坛币
10 个
通用积分
62.7954
学术水平
1 点
热心指数
6 点
信用等级
0 点
经验
24608 点
帖子
4133
精华
0
在线时间
0 小时
注册时间
2022-2-24
最后登录
2022-4-15

相似文件 换一批

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
英文标题:
《Neural network regression for Bermudan option pricing》
---
作者:
Bernard Lapeyre (CERMICS, MATHRISK), J\\\'er\\^ome Lelong (DAO)
---
最新提交年份:
2020
---
英文摘要:
  The pricing of Bermudan options amounts to solving a dynamic programming principle, in which the main difficulty, especially in high dimension, comes from the conditional expectation involved in the computation of the continuation value. These conditional expectations are classically computed by regression techniques on a finite dimensional vector space. In this work, we study neural networks approximations of conditional expectations. We prove the convergence of the well-known Longstaff and Schwartz algorithm when the standard least-square regression is replaced by a neural network approximation. We illustrate the numerical efficiency of neural networks as an alternative to standard regression methods for approximating conditional expectations on several numerical examples.
---
中文摘要:
百慕大期权的定价相当于求解一个动态规划原理,其中的主要困难,尤其是在高维情况下,来自计算连续值所涉及的条件期望。这些条件期望是通过有限维向量空间上的回归技术进行经典计算的。在这项工作中,我们研究了条件期望的神经网络近似。当标准最小二乘回归被神经网络近似代替时,我们证明了著名的Longstaff和Schwartz算法的收敛性。我们通过几个数值例子说明了神经网络作为标准回归方法的替代方法在逼近条件期望方面的数值效率。
---
分类信息:

一级分类:Mathematics        数学
二级分类:Probability        概率
分类描述:Theory and applications of probability and stochastic processes: e.g. central limit theorems, large deviations, stochastic differential equations, models from statistical mechanics, queuing theory
概率论与随机过程的理论与应用:例如中心极限定理,大偏差,随机微分方程,统计力学模型,排队论
--
一级分类:Quantitative Finance        数量金融学
二级分类:Computational Finance        计算金融学
分类描述:Computational methods, including Monte Carlo, PDE, lattice and other numerical methods with applications to financial modeling
计算方法,包括蒙特卡罗,偏微分方程,格子和其他数值方法,并应用于金融建模
--

---
PDF下载:
--> Neural_network_regression_for_Bermudan_option_pricing.pdf (396.52 KB)
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:百慕大期权 神经网络 期权定价 百慕大 神经网

沙发
nandehutu2022 在职认证  发表于 2022-6-24 09:30:28 |只看作者 |坛友微信交流群
百慕大期权的神经网络回归pricingBernard Lapeyre*Jér^ome Lelong+2020年12月3日摘要百慕大期权的定价相当于解决一个动态规划原则,其中主要的差异,尤其是在高维方面,来自于计算连续值所涉及的条件期望。这些条件期望通过有限维向量空间上的回归技术进行经典计算。在这项工作中,我们研究了条件期望的神经网络近似。当标准最小二乘回归被神经网络近似代替时,我们证明了著名的Longstaff和Schwartz算法的收敛性,假设计算该近似的有效算法。我们通过几个数值例子说明了神经网络作为标准回归方法的替代方法的数值效率,以近似条件期望。关键词:百慕大选项、最优停止、回归方法、深度学习、神经网络。1引言解决美式期权价格计算中涉及的后向递归问题多年来一直是一个具有挑战性的问题,人们提出了各种方法来近似其解决方案。真正的困难在于在递归的每个时间步计算条件期望E[UTn+1 | FTn]。如果我们要对不同的方法进行分类,我们可以说有基于回归的方法(见Tilley【1993】、Carriere【1996】、Tsitiklis andRoy【2001】、Broadie和Glasserman【2004】)和量化方法(见Bally和Pages【2003】、Bronstein等人【2013】)。我们参考Bouchard和Warin【2012】和Pagès【2018】对百慕大期权定价的不同技术进行了深入调查*巴黎理工大学,Cermics(ENPC),INRIA,F-77455 Marne la Vallée,Franceemail:bernard。lapeyre@enpc.fr+大学。

使用道具

藤椅
mingdashike22 在职认证  发表于 2022-6-24 09:30:31 |只看作者 |坛友微信交流群
格勒诺布尔阿尔卑斯山,CNRS,格勒诺布尔INP,LJK,38000格勒诺布尔,法国。电子邮件:jerome。lelong@univ-格勒诺布尔阿尔卑斯山。朗斯塔夫(Longstaff)和施瓦茨(Schwartz)[2001]提出的利用动态规划原理计算美式期权价格的算法受到了许多实践者的青睐。他们的方法基于迭代选择最优策略。在此,我们提出并分析了该算法的一个版本,该算法使用神经网络来计算条件期望的近似值,然后获得最佳的行使策略。使用神经网络计算美式期权价格并不是什么新鲜事,但我们知道,没有专门针对LS型算法使用神经网络的工作(LS for Longstaff and Schwartz[2001])。Haugh和Kogan【2004】中,作者在数值实验中使用神经网络,通过价值函数上的动态规划方程对美式期权进行定价。这导致他们提出了一种与本文研究的LS型算法不同的Tsitsiklis和Roy[2001]型算法,该算法只涉及最优停车策略。Kohleret al.(2010)使用神经网络对美式期权进行定价,但他们也在价值函数上使用了动态编程方程。此外,他们在每个时间步n使用基础过程X的整个pathof的新样本来证明收敛性。在我们的方法中,我们使用神经网络启发的原始Longstaff-Schwartz算法的修改,并在开始之前绘制一组分布为(XT,XT,…,XTN)的M样本,我们在每个时间步使用这些非常相同的样本。这通过避免在每个时间步进行非常昂贵的重模拟,节省了大量计算时间,这大大提高了我们方法的效率。

使用道具

板凳
nandehutu2022 在职认证  发表于 2022-6-24 09:30:35 |只看作者 |坛友微信交流群
Becker等人[2019a,b]还将深度学习用于优化停车的背景下,以参数化最优策略。现在,我们描述一下我们研究的框架。我们确定了一些有限时间范围T>0和经过过滤的概率空间(Ohm, F、 (英尺)0≤t型≤T、 P)用Fbeingthe琐碎σ对金融市场建模-代数我们假设短期利率由一个适应过程(rt)0建模≤t型≤P是一个相关的风险中性指标。我们考虑百慕大期权,行使日期为0=t≤ T<T<···<TN=T和贴现收益ZTnif行使时间TN。为方便起见,我们将0和T添加到行使日期。这完全不是我们在此提出的方法的要求,但它使符号更轻,避免处理百慕大方案中涉及的纯欧洲部分。我们假设离散时间贴现支付过程(ZTn)为0≤n≤Nis适应过滤(FTn)0≤n≤Nand thatE[最大值0≤n≤N | ZTn |]<∞.在完整市场中,如果E表示风险中性概率下的预期,则标准套利定价参数允许确定贴现值(Un)0≤n≤时间(Tn)0时的百慕大水电站Nof≤n≤NbyUTn=supτ∈TTn,TE【Zτ| FTn】。(1) 利用斯内尔包络理论,序列U可以由以下动态规划方程(UTN=ZTNUTn=max)证明ZTn,E[UTn+1 | FTn], 0≤ n≤ N- 1.(2)该方程可以根据最优策略重写。

使用道具

报纸
可人4 在职认证  发表于 2022-6-24 09:30:38 |只看作者 |坛友微信交流群
设τnbe为时间Tn后的最小最优策略-达到(1)中最大值的最小停止时间-然后(τN=TnτN=Tn{ZTn≥E[Zτn+1 | FTn]}+τn+1{ZTn<E[Zτn+1 | FTn]}。(3) 所有这些基于动态规划原理的方法,无论是作为值迭代(2)还是策略迭代(3),都需要实现马尔可夫设置,以便知道整个过去的条件期望可以被只知道当前马尔可夫过程值的条件期望所取代。我们假设贴现支付过程写入ZTn=φn(XTn),对于任何0≤ n≤ N、 其中(Xt)0≤t型≤这是一个采用Rr值的自适应马尔可夫过程。因此,(3)简单化中涉及的条件期望为[Zτn+1 | FTn]=E[Zτn+1 | XTn],因此可以用标准最小二乘法近似。请注意,此设置允许考虑大多数标准财务模型。对于局部波动性模型,过程X通常定义为Xt=(rt,St),其中sti是资产的价格,rt是瞬时利率(只有在利率确定时,Xt=St)。在随机波动率模型中,X还包括波动过程σ,Xt=(rt,St,σt)。一些路径依赖型期权也可以以增加流程X的规模为代价来适应此框架。例如,在有回报的亚式期权(TAT)的情况下- ST)+当At=RtSudu时,可以将X定义为Xt=(rt,ST,σt,At),然后亚洲期权可以被视为二维但非交易资产(S,a)上的普通期权。一旦确定了马尔可夫过程X,条件期望可以写为[Zτn+1 | FTn]=E[Zτn+1 | XTn]=ψn(XTn)(4),其中ψ解决了以下最小化问题∈L(L(XTn))EhZτn+1- ψ(XTn)i其中L(L(XTn))是所有可测函数f的集合,使得E[f(XTn)]<∞.

使用道具

地板
可人4 在职认证  发表于 2022-6-24 09:30:41 |只看作者 |坛友微信交流群
真正的挑战来自于通过有限维空间正确逼近空间L(L(XTn)):通常使用多项式或局部基(见Gobet等人【2005年】、Bouchard和Warin【2012年】),并且在任何情况下,它总是归结为线性回归。在这项工作中,我们使用神经网络来逼近ψnin(4)。神经网络和常用的回归方法之间的主要区别在于神经网络的非线性,这也增强了它们的强度。请注意,具有固定数量层和神经元的神经网络集显然不是向量空间,甚至不是凸的。通过神经网络,本文研究了在Longstaff-Schwartz算法中使用条件期望的非线性近似的效果。本文的组织结构如下。在第2节中,我们从神经网络的一些预备知识开始,回顾了普适逼近定理。然后,在第3节中,我们描述了我们的算法,第4节研究了其收敛性。最后,我们在第5.2节深度神经网络的预备知识中给出了一些数值结果深度神经网络(DNN)旨在逼近有限维空间中定义的(复杂非线性)函数,与通常通过基函数(如多项式)构建的加性近似理论相比,它们依赖于简单函数层的组成。神经网络的相关性来自于普遍逼近定理和科尔莫戈罗夫-阿诺德表示定理(见Arnold【2009】、科尔莫戈罗夫【1956】、Cybenko【1989】、Hornik【1991】、Pinkus【1999】),这在许多实际应用中都是成功的。我们考虑前馈神经网络(也称为多层感知器)来近似每个时间步的连续值。

使用道具

7
何人来此 在职认证  发表于 2022-6-24 09:30:43 |只看作者 |坛友微信交流群
从数学角度来看,我们可以通过非线性函数X来建模DNN∈ 十、 Rr7-→ Φ(x;θ)∈ RwhereΦ通常作为函数组合写入。让我≥ 2是整数,我们写Φ=ALo σao AL公司-1.o ··· oσao A(5)式中,`=1,五十、 A`:Rd`-1.→ Rd `是函数a`(x)=W ` x+β`表示x∈ 研发部`-1,带W`∈ Rd `×d`-1和β`∈ Rd`。在我们的设置中,d=r,dL=1。函数σais通常称为激活函数,并按组件应用。矩阵W的行数d通常被解释为层的神经元数。为了便于记法,我们将不同层的所有参数嵌入到唯一的高维参数θ中,θ=(W`,β`)`=1,。。。,L∈ RND,Nd=PL`=1d`(1+d`-1).让L>0固定在下面,我们引入集合NN∞上述表格中的所有DNN。现在,我们需要限制每层神经元的最大数量。让p∈ N、 p>1,我们用NNP表示神经网络集,每个隐层最多有p个神经元,L-1图层和有界参数。更准确地说,我们选取了一个递增的正实数序列(γp)psuch→∞γp=∞. 我们引入集合Θp={θ∈ Rr×Rp×r×(Rp×Rp×p)L-2×R×Rp:|θ|≤ γp}。(6) 然后,NNP定义为{Φ(·;θ):Rr→ Rθ ∈ Θp}我们有NN∞= ∪p∈NNNp。NNP的一个元素,用Φp(·;θ)和θ表示∈ Θp.注意,空间nnpi不是向量空间,也不是凸集,因此,找到最接近给定函数的nnp元素不能简单地解释为正交投影。霍尼克(Hornik)[1991]的基本结果证明了DNN作为函数近似的使用(相关结果参见Pinkus[1999])。定理2.1(普遍逼近定理)假设函数σais是非常数且有界的。

使用道具

8
mingdashike22 在职认证  发表于 2022-6-24 09:30:47 |只看作者 |坛友微信交流群
让u表示Rr上的概率度量,然后对于任何L≥ 2,NN∞isdense in L(Rr,u)。定理2.2(普遍逼近定理)假设函数σais是一个非常数、有界和连续的函数,那么,当L=2时,NN∞对于紧集上一致收敛的拓扑,稠密到C(Rr)。备注2.3我们可以用近似随机变量来重新表述定理(2.1)。LetY是定义在上的实值随机变量(Ohm, A) s.t.E【Y】<∞. 设X为定义的其他随机变量(Ohm, A) 取Rrand G中的值 A最小σ-代数证明X是G可测的。然后,存在一个序列(θp)p≥2.∈Q∞p=2Θp,这样跛行→∞E[| Y- Φp(X;θp)|]=0。因此,如果对于每个p≥ 2,αp∈ Θpsolvesinfθ∈ΘpE[|Φp(X;θ)- Y |],然后序列(Φp(X;αp))p≥2靠近L中的E[Y | G](Ohm) 当p→ ∞. 注意,只要激活函数σais有界,Φp(X;αp)∈ L(Ohm) 对于每个p≥ 2.3算法3.1算法描述我们回顾了最优策略的动态规划原理(τN=TNτN=TN{ZTn≥E[Zτn+1 | FTn]}+τn+1{ZTn<E[Zτn+1 | FTn]},对于1≤ n≤ N- 1、那么时间-0百慕大期权价格writesU=max(Z,E[Zτ])。为了求解这个动态规划方程,我们需要在每个时间步计算一个条件期望。Longstaff和Schwartz(2001年)提出的想法是,通过在精心选择的函数集上的回归问题来近似这些条件期望。在这项工作中,我们使用DNN来执行此近似。(τpN=TpNτpN=Tn{ZTn≥Φp(XTn;θpn)}+τn+1{ZTn<Φp(XTn;θpn)},对于1≤ n≤ N- 1(7)其中θpn解决以下优化问题infθ∈ΘpEΦp(XTn;θ)- Zτpn+1.

使用道具

9
可人4 在职认证  发表于 2022-6-24 09:30:51 |只看作者 |坛友微信交流群
(8) 由于条件期望算子是正交投影,我们有Φp(XTn;θ)- Zτpn+1=EΦp(XTn;θ)- EhZτpn+1 | FTni+ EZτpn+1- EhZτpn+1 | FTni.因此,(8)中的任何极小化子也是以下极小化问题infθ的解∈ΘpEΦp(XTn;θ)- EhZτpn+1 | FTni. (9) 标准方法是对模型X(m)T,X(m)T,…,的一组路径进行采样,X(m)tn以及相应的支付路径Z(m)T,Z(m)T,Z(m)TN,对于m=1,M、 要计算每条路径上的τn,需要计算n=1,…,的条件期望E[Zτn+1 | FTn],N- 然后,我们介绍了反向迭代策略的最终近似,其中截断展开使用蒙特卡罗近似(bτp,(m)N=TNbτp,(m)N=tnz(m)Tn)计算≥Φp(X(m)Tn;bθp,Mn)o+bτp,(m)n+1nZ(m)Tn<Φ(m)p(X(m)Tn;bθp,Mn)o,对于1≤ n≤ N- 其中,bθp,mn求解(8)infθ的样本平均近似值∈ΘpMMXm=1Φp(X(m)Tn;θ) - Z(m)τp,(m)n+1. (10) 然后,我们最终估计时间-0期权价格byUp,M=maxZ,MMXm=1Z(M)bτp,(M)!。(11) 备注3.1注意,为了实现前面的算法,我们需要计算优化问题(10)的最小值。显然,这不是一项容易的任务,因为这是一个高维、非凸和非光滑的问题。在实践中,通常使用Scikit Learn或TensorFlow等工具箱,通过随机梯度下降方法来解决该问题,在现实假设下的完全收敛性证明在我们的知识中仍然未知。有关这些主题的最新深度审查,请参见Bottou等人【2018年】或E等人【2020年】,关于非凸函数的结果,请参见Ghadimi和Lan【2013年】、Lei等人【2019年】、Fehrman等人【2020年】。4算法的收敛性我们在本节开始研究收敛性,介绍了Clément等人之后的一些定制符号。

使用道具

10
nandehutu2022 在职认证  发表于 2022-6-24 09:30:55 |只看作者 |坛友微信交流群
[2002].4.1符号首先,必须注意路径τp,(m),τp,(m)对于m=1,M是相同分布的,但不是独立的,因为每个时间步n的θpn的计算混合了所有路径。我们定义了连续展开系数的向量θp=(θp,…,θpN-1) andits Monte Carlo对策bθp,M=(bθp,M,…,bθp,MN-1).现在,我们回顾Clément et al.(2002)用于研究原始Longstaff-Schwartz方法收敛性的符号。给定确定性参数tp=(tp,…,tpN-1) inΘpN-1和确定性向量z=z,zNin RNand x=(x,…,xN)in(Rr)N,我们定义向量场F=F,FNby(FN(tp,z,x)=zNFn(tp,z,x)=zn{zn≥Φp(xn;tpn)}+Fn+1(tp,z,x)1{zn<Φp(xn;tpn)},对于1≤ n≤ N- 1、注意Fn(t,z,x)不依赖于前n-1 tp组件,即Fn(tp、z、x)仅依赖于tpn,tpN-此外,Fn(θp,Z,X)=Zτpn,Fn(bθp,M,Z(M),X(M))=Z(M)bτp,(M)n。此外,我们清楚地知道,对于所有tp∈ ΘpN-1 | Fn(tp,Z,X)|≤ 最大值(maxk)≥n | ZTk |。(12) 4.2条件期望的深层神经网络近似建议4.1假设E[max0≤n≤N | ZTn |]<∞. 然后,跛行→∞E[Zτpn | FTn]=L中的E[Zτn | FTn](Ohm) 适用于所有1≤ n≤ N、 备注4.2注意,在命题4.1的证明中,不需要对每个p都使用集Θpto。我们可以选择γp=∞. 然而,下一节将需要有界性假设,因此为了在整个纸张上使用相同的近似值,我们决定对每个p.证明的Θpf施加紧性。q我们从归纳法开始。对于n=n,结果为真,因为τn=τpN=T。假设i为n+1(0≤ n≤ N-1) ,我们将证明这对于n是正确的。

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加JingGuanBbs
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-11-9 23:42