楼主: 何人来此
1690 51

[量化金融] 衍生工具投资组合建模的高斯过程回归 [推广有奖]

11
mingdashike22 在职认证  发表于 2022-6-11 12:59:15
(2011)).假设加性高斯i.i.d.噪声,y | x~ N(f(x),σ)和f(x)上的GP,给定训练输入x∈ X和培训目标y∈ Y,在任意测试点X评估的GP的预测分布*is:f*| 十、 Y,X*~ N(E[f*|十、 Y,X*], var[f*|十、 Y,X*]), (3) 这种选择在实践中并不是一个真正的限制(因为它只考虑先验知识,并不能防止预测值的平均值不为零)。其中,X上的后弯矩*areE[f*|十、 Y,X*] = uX*+ KX公司*,X[KX,X+σI]-1年,var[f*|十、 Y,X*] = KX公司*,十、*- KX公司*,X[KX,X+σI]-1KX,X*.(4) 给,KX*,十、 KX,X*, KX、X和KX*,十、*是由核组成的矩阵,k:Rp×Rp7→ R、 在对应点X和X处进行评估*, 和uX*是测试输入X上评估的平均值吗*.在衍生产品定价应用中,X可能对应于一组风险因素网格节点,Y对应于相应的模型价格(通过分析公式或任何可能近似的经典数值金融定价方案进行估值),E[f*|十、 Y,X*] 与新值x相对应的GP回归价格*∈ 十、*风险因素和VaR*|十、 Y,X*] 对应的插值不确定度。请注意,如果x,则后者仅等于0*∈ X和1在无噪声的情况下,σ被设置为0。我们强调,在la Longstaff and Schwartz(2001)(参见例如Cr'epey(2013,第四部分))的最小二乘蒙特卡罗回归方法中,我们在模拟样本上训练函数近似器,通常是固定基函数的线性组合。

12
kedemingshi 在职认证  发表于 2022-6-11 12:59:18
相比之下,GPs是在(结构化或非结构化、确定性或随机生成的)网格上进行值(而非样本)训练的,就像一个复杂的插值器。2.2超参数调整GPS通过优化证据(模型给出的数据相对于学习的核超参数的边际概率)来适应数据。证据的形式如下(参见Murphy(2012,第15.2.4节,第523页)):log p(Y | X,λ)=-Y> (KX,X+σI)-1Y+对数det(KX,X+σI)-nlog 2π,(5),其中核超参数λ包括σin(5)和KX,X的参数(例如λ=[`,σ),假设根据(1)的SE核或对于某些外源固定值νin(2))的MA核。(5)括号中的第一项和第二项可以解释为模型和复杂性惩罚项(见Rasmussen和Williams(2006年,第5.4.1节))。最大化关于核超参数的证据,即计算λ*=arg maxλlog p(Y | X,λ)导致自动Occam剃刀控制回归函数和插值器规则性之间的权衡(见Alvarez et al.(2012,第2.3节)和Rasmussen and Ghahramani(2001))。在实践中,通过随机梯度下降(SGD)将负面证据最小化。证据的梯度是由λlog p(Y | X,λ)=trααT- (KX,X+σI)-1.λ(KX,X+σI)-1,(6)式中α:=(KX,X+σI)-1年,σ(KX,X+σI)-1= -2σ(KX,X+σI)-2,对于SE或MA内核,`(KX,X+σI)-1= -(KX,X+σI)-2.`KX,X(7)(在SE情况下,`k(x,x)=`-3 | | x- x | | k(x,x))。2.3数值上最大化(5)所需的计算属性训练时间与观测值n的数量相比,比例很低。这源于需要求解线性系统并计算涉及n×n对称正定义协方差矩阵K的对数行列式。

13
能者818 在职认证  发表于 2022-6-11 12:59:21
此任务通常通过计算K的Cholesky分解来执行,该分解产生O(n)复杂性。然而,预测速度更快,并且可以在O(n)中使用每个测试点的矩阵向量乘法来执行,因此使用GPsis实时风险估计性能的主要动机。如果使用统一网格,我们有n=Qpk=1nk,其中nk是网格点sper变量的数目。但是,可以按照第3.3节所述使用无网格GPs。在存储成本方面,虽然每个核矩阵KX,Xis n×n,但我们只将向量α存储在(6)中,这减少了内存需求。大规模可伸缩高斯过程大规模可伸缩高斯过程(MSGP)是上述基本内核插值框架的最新重要扩展。Gardner等人(2018)详细介绍了该框架的核心思想,即通过将GPs与“诱导点方法”相结合来提高可扩展性。使用结构化核插值(SKI),从原始训练点中小心地选择一小组m诱导点。在核函数的某些选择(如RBF)下,快速傅立叶变换(FFT)可以利用协方差矩阵的Kronecker和Toeplitz结构。最后,原始输入点上的输出由感应点处的输出进行插值。通过将核插值表示为一维核的乘积,插值复杂度与输入数据的维数p成线性比例。总体而言,SKI使用Pleiss等人(2018)的Lanczos方差估计,给出了每个测试点的SO(pn+pmlogm)训练复杂性和O(1)预测时间。在本文中,为了简单起见,我们主要使用基本插值方法。在线学习如果期权定价模型在当天重新校准,则应重新培训相应的GP模型。

14
能者818 在职认证  发表于 2022-6-11 12:59:24
在线学习技术允许以增量方式执行此操作(见Pillonetto等人(2010))。为了实现在线学习,应使用恒定的模型参数扩充训练数据。每次更新参数时,都会根据新参数化下的期权模型价格生成一个新的观测值(x,y)。测试点x处的后部*然后用新的培训点更新P(f*|十、 Y,X,Y,X*) =p(x,y | f*)p(f*|十、 Y,X*)RZp(x,y | z)p(z | x,y,x*)dz,(8)其中前面后面的p(f*|十、 Y,X*) 成为更新和f中的优先级*∈ Z R、 因此,GP会随着时间的推移进行学习,因为模型参数(是GP的输入)会通过定价模型重新校准进行更新。3单响应高斯过程的定价和迎接3.1定价在以下示例中,投资组合在相同基础上的欧洲看涨期权和aput期权中都持有多头头寸,K=100。我们假设基础遵循赫斯顿动力学(风险中性形式):dStSt=rdt+pVtdWt,dVt=κ(θ-Vt)dt+σpVtdWt,dhW,Wit=ρdt,(9),其中符号在表1中定义。我们使用Fang andOosterlee(2008)提出的傅里叶余弦方法生成GP的欧洲赫斯顿期权价格培训和测试数据。我们还使用这种方法来比较通过微分核函数得到的GP希腊值。表1还列出了数值实验中使用的赫斯顿参数值和欧洲看跌期权合约条款。此外,在两年的时间范围内,使用100个时间步长,使用Euler时间步进器为(9)生成数据。参数说明Symbol值初始股价方差V0.1平均回归率κ0.1平均回归水平θ0.15Vol。第卷第页。

15
mingdashike22 在职认证  发表于 2022-6-11 12:59:26
σ0.1无风险率r 0.01罢工K 100饱和度T 2.0相关性ρ-0.9表1:此表显示了赫斯顿动态和欧洲看涨期权和看跌期权合同条款的参数值。对于日期网格中的每个ti(在CVA的背景下,对应于MtMexposure模拟时间ti,见第5节),我们同时为众多GPs提供了一个可靠的调用,并将价格置于股价和波动性之上√V(保持到期时间固定)。然后,我们将赫斯顿价格的GP转换为赫斯顿定价函数,赫斯顿价格由S和S的网格值的傅立叶公式计算得出√五、我们强调,在此过程中,仿真模式中未使用Hestondynamics(9)。清单1详细说明了GP和数据如何准备在二维网格上预测到期和敲定的固定时间内的价格。图1和图1(顶部)显示了网格化半分析和GP看涨期权和看跌期权在不同到期时间的价格面之间的比较,以及GP估计。在图中的每一列中,相同的GP模型同时适用于30×30网格上的看涨期权和看跌期权价格面Ohmh类 Ohm := 股票价格和波动率的[0,1]×[0,1],为到期日的给定时间。图的底部面板显示了GPA和半解析估计值之间的误差面。扩展到单位域并不重要。然而,在缩放时,我们观察到了优越的数值稳定性。在每一列中,对应于不同的到期时间,已经建立了不同的GP模型。然后在40×40网格上从样品中评估GPOhmh类 Ohm, 因此,许多测试样本都是该模型的新样本。这在不同的日期重复。

16
mingdashike22 在职认证  发表于 2022-6-11 12:59:31
观察到期权模型与GP模型产生非常相似的值。(a) 价格:T-t=1.8(b)价格:t-t=1.0(c)价格:t-t=0.2(a)错误:t-t=1.8(b)错误:t-t=1.0(c)错误:t-t=0.2图1:该图比较了网格化赫斯顿GP和半分析(“精确”)模型调用价格(顶部)和误差(底部)在不同到期时间的表面。观察到GP估计值几乎相同(平均略高于半解析解)。在图中的每一列中,同一个GP模型同时适用于赫斯顿模型看涨期权和看跌期权价格面,价格和波动率的网格为30×30,即到期时间。在每一列中,对应于不同的到期时间,已经建立了不同的GP模型。然后在40×40网格上从样本中评估GP,因此许多测试样本都是该模型的新样本。这在各种到期时间重复。1导入PyHeston3 S=1004 v0=0。16 lmbda=0。17平均值V=0。1 58西格玛=0。19 r=0。0 110 K=100注意,绘图使用原始坐标,而不是重新缩放的坐标。(a) 价格:T-t=1.8(b)价格:t-t=1.0(c)价格:t-t=0.2(a)错误:t-t=1.8(b)错误:t-t=1.0(c)错误:t-t=0.2图2:与图1中的看跌期权(而非看涨期权)类似。11 T=2。012 rho=-0.913 s t e p s i z e=0。4#使用Heston p r i c e r 16 l l b=117 ub=40018 p o r t f o l i o={}19 p o r t f o l i o[\'c a l\']={}20 p o r t f o l i o[\'put\']={}22 t r ai ni g n um b e r=3023 t t t t t t e st i g nu m b e r=4026 x 1 t r a i n=np。ar r a y(np.l i n s p a c e(0.0,1.0,t r ai n i n g n um b e r),dtype=\'f l o a t 3 2\')。re s h a p e(tra in i ng n um be r,1)27 x 2 t r a i n=np。ar r a y(np.l i n s p a c e(0.05,1。

17
大多数88 在职认证  发表于 2022-6-11 12:59:34
0,t r ai n i n g n um b er),数据类型=\'f l o a t 3 2\'。re s h a p e(tra in i ng n um be r,1)30 X 1 t ra in,X 2 t r a in=np。网格(x 1 t r a i n,x 2 t r a i n)31 x t r a i n=np。z e r o s(l e n(X 1 t r a i n.f l a t e n())* 2) . re s h ap e(l e n(X 2 t r ai n.f l a t e n()),2)32 X t r a i n[:,0]=X 1 t r a in。f l a t e n()33 x t r a i n[:,1]=x 2 t r a in。f l a t e n()35 x 1 t e s t=np。ar r a y(np.l i n s p a c e(0.0,1.0,t e st i n g nu m b e r),dtype=\'f l o a t 3 2\')。re s h a p e(tes ti ng n u mber,1)36 x 2 t e s t=np。ar r a y(np.l in s p a c e(0.0 5,1.0,t e st i ng nu m b e r),dtype=\'f l o a t 3 2\')。re s h a p e(tes ti ng n u mber,1)38 X 1 t es t,X 2 t e s t=np。me s h g r i d(x 1 t e s t,x 2 t e s t)40 x t e s t=np。z e r o s(l e n(X 1 t e s t.f l a t e n())*2) . re s h a p e(l e n(X 2 t e s t.f l a t e n()),2)41 X t e s t[:,0]=X 1 t e s t。f l a t e n()42 x t e s t[:,1]=x 2 t e s t。f l a t e n()44 p o r t f o l i o[\'c a l l\'][\'p r i c e\']=λx,y,z:PyHeston。C al l上的H est(磅+(ub-l b)*x,y,K,z,r,lmbda,meanV,sigma,rho,s t e p s i z e)45 p o r t f o l i o[‘put’][‘p r i c e’]=λx,y,z:PyHeston。HestonPut(l b+(ub-l(b)*x、y、K、z、r、lmbda、meanV、sigma、rho、s t e p s i z e z)47 f r key i n p o r t f o l i o。

18
可人4 在职认证  发表于 2022-6-11 12:59:37
key s():48 p o r t f o l i o[key][“GPs”]=列车GPs(x t r a i n,p o r t f o l i o[key][“p r i c e”,t i m e g r i d)49 p o r t f o l i o[key][“y t e s t s”,p o r t f o l i o[key][“p re ds”],p o r t f o l i o[键][“sigma s”]=pred i c tGPs(x t e s t,p o r t f o l i o[键][“p r i c e”],p o r t f o l i o[键][“GPs”],t i m e r i d)清单1:这段Python 3.0代码摘录说明了如何使用GP在Heston模型下选择价格。XA和xare分别计算了基础股票价值和波动率。请注意,清单仅提供了显著的细节,读者应参考示例6-GP-Heston。Github中的ipynb以实现完整的实现。外推核组合在导数建模中有用的一个实例是外推,可以选择适当的混合或核组合,以便GP能够在训练集的域外进行预测。注意到当看涨期权或看跌期权分别深度流入和流出资金时,支付是线性的,我们可以将GP配置为线性内核和SE内核的组合。包含线性核是为了确保域外预测保持线性特性,而SE核捕获非线性。图3显示了使用这种内核组合来推断110点买入和90点卖出的价格的结果。

19
nandehutu2022 在职认证  发表于 2022-6-11 12:59:40
GP预测保持了Payoff函数的线性特性,并且随着测试点距离训练集越远,不确定性越大。上述示例是针对(半解析)Black-Scholes和Heston价格进行培训的,因此可以评估近似器的质量。在实际应用中,如果近似值是在更一般的模型中对更一般的产品进行培训,则可能需要更复杂、可能更近似的定价方案(包括蒙特卡罗内部模拟)来确定节点上的值。3.2 Greeking GP提供关于输入变量的分析导数十、*E【f】*|十、 Y,X*] = 十、*uX*+ (十、*KX公司*,十) α(10),其中十、*KX公司*,X=`(X-十、*)KX公司*,我们从(6)之后回忆起,α=[KX,X+σI]-1Y(在数值实验中,我们设置u=0)。二阶灵敏度通过再次对X进行微分获得*.请注意,α已经在(定价)训练时通过复杂度为O(n)的[KX,X+σI]的Cholesky矩阵分解计算出来,因此Greeking没有明显的计算误差。一旦GP了解了衍生品价格,方程(10)即为(a)买入价格(b)卖出价格图3:该图评估了Black-Scholes模型建立过程中的GP期权价格预测。具有线性和SE核的GP在n=50 X,Y对上训练,其中X∈ Ohmh类 (0,300)是期权价格的网格化基础,Y是买入或卖出价格的向量。这些训练点用黑色“+”符号表示。使用black-Scholes定价公式的准确结果由黑线给出。预测的平均值(蓝色实线)和后验方差由方程(4)在m=100网格化测试点,X上估计*∈ Ohmh类* [300,400],对于(左)买入期权,在110点敲打,而(中)putoption在90点敲打。

20
大多数88 在职认证  发表于 2022-6-11 12:59:43
阴影包络线表示关于后部平均值的95%不确定性带。随着测试点距离训练集越远,观察到该不确定度带会增加。期权的到期时间固定为两年。用于评估测试集中输入变量的一阶MtM希腊语。清单2中给出了说明此计算实现的示例源代码。图4显示了(左)买入期权增量的GP估计 :=C砂(右)Black-Scholes(BS)三角洲与GP估计值之间的误差。我们强调,GP模型是根据基础和期权定价数据训练的,而不是使用期权的增量。观察到GP delta密切跟踪delta的BS公式。图5(左)显示了看涨期权vegaν的GP估计:=Cσ、 接受过隐含波动率和BS期权模型价格培训,未使用期权的vega。右侧窗格显示BS vega和GP估计值之间的误差。观察到GP vega密切跟踪vega的BS配方。1将s c i p y作为sp2从Bl a ck s c h o l es导入numpy作为np3导入*4从s k l e a r n导入g a u s i a n p r o c e s 5从s k l e a r n。g a u s i a n p r o c e s。k e r n e l s i m p o r t ConstantKernel,RBF8 e t BS模型参数r=0。0 0 0 2#r是k-f r e e r a t e10 S=100#U n der lying S po t11 KC=130#C a l S t r i k e12 KP=70#Put S t r i k e13 sigma=0。4#i m p l i e d v o l a t i t y 14 t=2。0#材料时间y15 l b=0。0 01#在域上下界图4:此图显示了(左)买入期权折旧的GP估计值的比较 :=C砂光BS delta公式。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-3 08:03