楼主: nandehutu2022
1422 60

[量化金融] 组合尾部风险的序列设计与空间建模 [推广有奖]

21
可人4 在职认证  发表于 2022-6-1 13:31:42
可能会对以前rnk=0的新外部场景进行采样。然后更新以根据新的MCoutput生成^fk+1。三、 最终估计值^RKis从方程(17)中获得,不确定性通过(18)表示。使上述数学精确归结为两个目标:(i)发现与R相对应的z区域,以及(ii)减少该区域中的sk(·)。这些目标与ExplorationExploration的权衡相匹配:分配太多的复制来解决(i)产生一个代理项,该代理项虽然可以识别R的位置,但精度不高,而只关注(ii)如果不进行有效搜索,可能会锁定错误的区域。为了在顺序分配期间指导这一权衡,采集功能基于不确定性度量。然后,该策略(目光短浅地)通过确定什么样的新模拟最能减少下一轮的预期不确定性,来逐步减少不确定性(SUR,见[4、14、15、29、30])。尽管它们在机器学习文献中大量出现,但据我们所知,我们是第一个将这些概念应用于投资组合风险度量的人。与步骤II中的循环相关的计算开销是不可忽略的。它涉及采集函数Hk(z1:N)的计算,以及GP代理项^fk的更新→^fk+1。为了提高计算效率,我们不需要添加单个内部模拟,而是先处理大小不同的批rk,表示Nk+1=Nk-rk。因此,顺序设计程序用于确定满足PNR0NK=rk。第4.1-4.2节中的方法分配所有RK新复制到单个zk+1场景。或者,第4.3节中的方法解决了一个额外的优化问题,即如何跨多个外部场景分布新的内部模拟。

22
mingdashike22 在职认证  发表于 2022-6-1 13:31:45
为了便于演示,我们将重点放在每个步骤的固定预算上r例如r=0.01N(其中Nis是初始化后的剩余预算)生成一个K=100轮的过程。第5.3节讨论了进一步提高速度以减少开销。评论我们的算法通常不会对所有外部场景进行采样,尤其是在早期。因此,我们区分了总N和N(k)≤ N是按k轮采样的场景数。因此,在(13)或(17)等表达式中,有效计算是使用大小为N(k)的矩阵/向量。这对于计算开销很重要,因为majorbottleneck正在处理N(k)×N(k)矩阵C.4.1分位数目标的目标MSE标准,对应于风险值计算,感兴趣区域变为轮廓{z:f(z)=L},其中L=f(αN)是隐式的。为了了解等高线,我们希望减少接近L的场景的克里格方差。为此,我们考虑Picheny et al.(30)中最初引入的场景z的目标均方误差:Tsevark(z)。=sk(z)WVaRk(z;L),其中WVaRk(z;L)=q2π(sk(z)+ε)exp-mk(z)- Lqsk(z)+ε= φ(mk(z)- 五十、 sk(z)+ε(19)基于高斯pdfφ。因此,对于预测的portfoliovalue接近L的情景和后验方差较高的情景,WVaRk(z;L)最大。(19)中的参数ε控制着围绕L级的标准的本地化程度。Picheny等人[30]建议ε为响应范围的百分之五,然而,他们认为τ≡ 0.在我们的情况下,ε随着k的增加而减少是可取的,以反映对R的认识的提高。我们建议从(18)中取εk.=s(^RHDk),这捕捉了分位数的不确定性。

23
可人4 在职认证  发表于 2022-6-1 13:31:48
当k较小时(在早期阶段不确定),该值会增大,并随着k的增加而迅速减小。然后,要贪婪地最小化的总体采集功能为Htimsek+1,整个Z上的总(集成)tmse取决于在zk+1:Htimsek+1添加模拟=NNXn=1tmsvark+1(zn)=NNXn=1sk+1(zn)WVaRk+1(zn;R)。(20) (20)的右侧仍然包含只有在zk+1处采样后才能知道的术语。让我们定义(zn;zm)。=C(zn,zn)- c(zn)(c+candk+1)-1c(zn)Tcandk+1=diag^τk(z)rk,。。。,^τk(zm)rmk+rk,。。。,^τk(zN)rNk!(21)近似于zn的下一步克里格方差,假设rkadditionalreplications被添加到zm中(将所有其他GP片段从第k轮冻结)。注意噪声矩阵candk+1受rk(可能还有一行/列相对于kif考虑了迄今为止未取样的情况zm),但协方差矩阵C没有考虑。此外,我们使用在^RHDk水平上评估的当前tmse权重WVaRk(zn)近似WVaRk+1(zn;R),因此最终标准为BHvar,timsek(z)=NNXn=1Vk(zn;z)WVaRk(zn;^RHDk),(22),在下一个采样方案z中数值最小化。选择zk+1作为(22)的最小值被称为ST-GP(用于“基于GP的顺序TIMSE”)程序。评论最初的【30】考虑了Z是连续的情况,因此设计增加了新的场地zk+1和HTIMSEW,通过积分定义。在我们的例子中,Z是有限的(Htimseis a sum)和固定的,因此我们将复制添加到现有Z∈ Z、 对于TVaRα,需要考虑左尾的所有情况,因此我们修改了准则方程(22)以使用权重(保持所有其他内容不变,包括使用ε=s(^RHDk))WTVaRk(Z;^RHDk)=q2π(sk(z)+s(^RHDk))Φ^RHDk- mk(z)qsk(z)+s(^RHDk), (23)其中Φ(·)表示标准高斯cdf。

24
大多数88 在职认证  发表于 2022-6-1 13:31:52
随着z在尾部变深,重量Wt变大(即^RHDk- mk(z)更为正),同时仍对不确定性进行补偿。注意,另一种选择是考虑凸组合Wk=αWVaRk+(1-α) WTVaRk,其中0<α<1,将正确识别尾部场景的切割效果的目标与准确预测所有尾部损失相结合。特别是,辅助实验表明,这种选择与α∈ [0.1,0.3]提高了ST-GP学习TVaR的能力。为简洁起见,我们仅给出α=1(VaR)和α=0(TVaR)的结果。4.2预期改进标准基于Bect等人【4】的另一条路线是分析随机变量{fk(zn)≤五十} 其方差Var({fk(zn))≤五十} | Dk)=pk(zn)(1- pk(zn)),其中pk(zn)。=P(^fk(zn)≤ L | Dk)=Φ(L)- mk(zn))/sk(zn).当pk(zn)接近0或1时,即当^fk对侧^fk(z)与L的关系有很强的理解时,这些差异很低。这促使最小化所有z、Pnpk+1(zn)(1)的预期水平集不确定性- pk+1(zn)),条件是在选定的zm处添加内部模拟。如前一节所述,我们将^RHDk替换为L,并考虑Pk+1(zn)的前瞻版本Pk(zn;zm),假设将复制添加到场景zm中,参见(21),Pk(zn;zm)=^RHDk- mk(zn)Vk(zn;zm)!。(24)将isbHVaR、ECIk(z)最小化的预期轮廓改善标准=NNXn=1Pk(zn;z)(1- Pk(zn;z))。(25)在续集中,此分配规则与GP仿真器结合使用,标记为SE-GP。对于TVaR,(25)的类似物是最小化水平集{z:^fk+1的预测不确定性≤ 五十} 。根据【26】,这可以通过采集功能bhtvar、ECIk(z)实现=NNXn=1Pk(zn;z)。

25
大多数88 在职认证  发表于 2022-6-1 13:31:55
(26)然而,请注意,bhtvar,eci实际上倾向于忽略满足mk(z)的场景^Rhdk,因为在这种情况下Pk(zn;z)≈ pk(z)≈ 1因此,通过对极端损失情景进行抽样,可以将不确定性降低到最低程度。因此,(26)最终表现出与(25)相似的行为,并且没有根据需要探索足够的左尾来进行正确的TVaR估计。4.3动态分配设计分批添加内部模拟允许在多个不同场景中并行采样。这有利于预测运行新内部模拟的全局更新效果。这种并行更新也在顺序方法和固定阶段方法之间架起了桥梁,如[27]的三阶段方法。允许rkbe阶段k的预算。我们希望选择{r0nk}以最小化等式(18)中的后验方差估计量(^Rk+1),受约束条件PNR0NK=rk和r0nk≥ 为此,我们将Liu和Staum【27】的解决方案扩展到顺序设计环境中,其中rnkvaries位于k轮和locationszn轮之间。Liu和Staum【27】考虑了rnkis constantin k和n轮的具体情况。在一组rnk条件下,写出前瞻方差,sk+1(^Rk+1)=^wk+1(C- C(C+candk+1)-1C)^wTk+1(27),其中^wk+1是(5)中权重的估计值。请注意,sk+1(^Rk+1)由每个HRNK+1通过前瞻噪声矩阵驱动candk+1具有对角线条目τ(zn)rnk+rnk。要继续,wefreeze the weights^wnk+1=^wnk,其中关键计算涉及表示矩阵逆(C+candk+1)-在rn方面,这在附录A的引理1中完成。相应的证明进一步表明,最小化(27)等于最小化Kcandk+1个uTk=(C+(k)-1C^wTk。(28)可使用钉住算法解决该最小化问题,参见例[7]。

26
nandehutu2022 在职认证  发表于 2022-6-1 13:31:58
如前所述,对于τ(zn)项坎德candk+1我们使用hetGP估计值。请注意,(28)的前提是将复制添加到具有其他现有模拟的场景中对于rnk=0,candk+1未定义。因此,为了实现(28),我们首先创建分配子集ZSVkof场景进行优化,以便在(28)中索引n穿过{n:zn∈ ZSVk}。我们发现,基于ST-GP权重构建ZSV效果很好(见下文第5.3节,该节使用相同的结构来筛选ST-GP和SE-GP的方案)。如有必要,在最小化(28)之前,我们将向zsvkthathat rnk=0的任何场景添加单个复制。上述算法,我们在下面的内容中标记为SV-GP(用于方差最小化),基于求解(28)进行三次近似。首先,它通过在引理1中使用矩阵近似来修正最小化问题。其次,它将噪声方差视为已知(具体地说,它使用了跨k和k+1阶段的τ(z)的估计)。第三,它将GP emulator视为固定的,即它没有考虑超参数本身在k中的演变。由于上述所有原因,最终的分配R0NK是次优的。这意味着,虽然该方法提供了分配任意模拟预算的方法,但它不能完全取代连续的几轮。事实上,这是像[27]那样的固定阶段方法的基本缺点:通过只采取几个阶段,GP代理的初始化和适当的微调就承担了额外的责任。如下所示,SV-GP的最终性能并不比上一节中更“幼稚”的一次一个场景的策略好多少。由于(28)中的近似值随着每个rnk而减小,n=1,N增加,SV-GP在后期表现最好。

27
能者818 在职认证  发表于 2022-6-1 13:32:01
这也意味着增加批量可能是有益的rkas k增长。VaR TVaRFigure 1:使用SR-GP-2和2-D Black-Scholes案例研究,在相同的模拟输出上,即在轮k=20后,ST-GP、SE-GP和SV-GP的归一化采集函数。这里,SV-GP的“采集函数”是指等式(28)中最小化问题的分配结果。为了可视化,ST-GP和SE-GP标准在符号上发生变化,以便它们能够定位Rk至最大值点;所有H均归一化为在范围[0,1]内。垂直虚线表示真实分位数场景qα。为了说明各种采集函数,图1显示了ST GP、SE-GP和SV-GP的HK(zn)归一化值。对于后者,我们采用HSVk(zn)≡ rn,即下一阶段分配装载。基本模型来自下文第6节中的案例研究。我们观察到,对于VaR,allbH以分位数qα为目标,SV-GP更强烈地集中在该区域。重新调用ST-GP和SE-GP将选择zk+1作为所示采集函数的最大值,而V-GP将划分RK根据指示的rnk。对于TVaR,ST-GP和SV-GP以深尾(投资组合损失最严重的情景)为目标,而SE-GP仍将重点放在分位数区域。4.4基于秩的分配一种更简单的方法是基于后验均值mk(zn)分配内部仿真。具体来说,对于给定的参数L和满足L的U≤ αN≤ SR-GP(“顺序秩”)算法统一分配给秩在L和U之间的所有场景:RSR-GPk(L,U)。={zn∈Z:mk(zn)∈ [m(L)k,m(U)k]}。因此,rnk=rk/(U)- 五十) 对于zn∈ RSR-GPk(L,U),否则为零。如果保守地选择L和U的值,SR-GP“覆盖”了预测的相关邻域中的所有场景。

28
可人4 在职认证  发表于 2022-6-1 13:32:04
这确保了对潜在尾部的探测,但自适应目标定位可能不够本地化。相反,取L=U=αN会产生一个非常激进的估计VaRα的ESR GP方案:它贪婪地将所有rkscenarios到经验分位数,即scenariocqαk。使用该极值作为比较器,说明了顺序设计期间的探索价值。一般来说,与ST-GP、SE-GP和SV-GP相比,SR-GP应该是次优的,因为它没有考虑^fk的不确定性。它也有助于优先合理设置L和U。为了在案例研究中获得性能良好的估计器,我们对L和U的选择经过了多次反复调整,以查看哪些方面效果良好,所有这些都取决于案例研究和风险度量。5算法k=1 k=30 k=100图2:SV-GP在阶段k=1、30、100的顺序预算分配,以学习第6节的二维Black-Scholes案例研究中的VaR0.005。蓝线表示真实分位数轮廓f(50)。每个点代表一个外部场景zn;相应的大小和颜色在NK中进行非线性缩放。某些场景接收的rnk多达≈ 1200种方案(总预算N=10)。为了说明我们的顺序方案,图2显示了在SV-GP方法用于VaR估计的一次运行中情景分配的演变。随着k的增加,绝大多数预算用于尾部场景,突出了自适应内部模拟。因此,在后期阶段,很少有其他场景扩展到Dk;相反,对于分位数qα附近的位置,RNKAR值增加。通过比较k=1面板(其中算法研究的场景z>225),以及k=30和k=100面板(其中仿真器实现| mk(zn)后rnkremain low的相应值),可以观察到f的学习-R在那个地区实际上很大。

29
何人来此 在职认证  发表于 2022-6-1 13:32:09
k=100的最终图还显示了如何考虑GP的空间协方差:场景在“集群”中采样,围绕一个具有平均高rnk的场景,附近的位置从该信息中受益。5.1更新模拟器在算法的每个阶段,GP模拟器从^fk更新为^fk+1。在根据第4节讨论的过程记录要添加到每个场景的复制数(r0nk)Nn=1并生成新数据{yn,i:i=rnk+1,…rnk+r0nk}之后,我们有了递归更新程序rk+1=rnk+rnk,(29),用于k+1in(13)。接下来,直接重新计算mk+1,sk+1需要反转计算代价高昂的| Dk |×| Dk | GP协方差矩阵C。相反,我们通过重新使用k阶段(13)RHS上的表达式来更新GP模型。在我们的上下文中,更新分为两种情况,它们都在hetGP中内部合并。首先,如果将新的外部场景zk+1(之前rnk=0)添加到DK中,则可以应用GP更新方程【15】,利用Woodbury公式在增加1行时查找矩阵逆。其次,如果只添加了新的复制,即| Dk+1 |=| Dk |,那么我们将进行调整k+1不接触C[5]。直观地说,只需跟踪“yn,^τ(zn)和rnk”就足够了,后3个向量都满足简单的更新算法[10,24]“ynk+1=rnk”ynk+r0nk“y0nkrnk+r0nk,(30)^τk+1(zn)=(rnk+r0nk- 1)(rnk- 1) ^τ(zn)+(r0nk- 1) ^τk(zn)+R0nKrNk+r0nk\'\'ynk- (R)y0nk, (31)其中“ynkis是新yn的平均值,i’s和^τkis是相应的样本方差。请注意,更新会冻结GP超参数,请参阅下面的第5.3节。5.2^的初始化最后,对于所有n,我们的rn=0,即没有数据通知我们尾部区域可能位于何处。

30
何人来此 在职认证  发表于 2022-6-1 13:32:13
要进行初始化,典型的解决方案是使用少数九分之一的试点方案,这些方案代表整个Z域,由一些空间填充算法(例如拉丁超立方体采样,LHS)确定。Chauvigny等人【11】提供了一种更详细的方法,使用统计深度函数根据Z的几何结构来识别试点场景。一个小挑战是LHS和其他空间填充方法不直接适用于空间不均匀的离散场景集(见图3)。相反,我们开发了一个基于欧几里德距离kz的minimaxstyle初始化过程- zkand如附录B所述。请注意,最终设计尺寸Ninit=| D |不是完全预先确定的。确定D后,我们为每个场景分配相等数量的内部模拟,即r0n=所有{n:zn的r/Ninit∈ D} 构建^f。在下面的案例研究中,我们采用r=0.1N,Ninit=0.01N,因此我们将总预算的10%用于试点,覆盖1%的场景。图2的k=1面板通过绘制试点场景(重黑点)说明了该填空过程。它还显示了第一轮分配,其中rn>0的位置开始沿初始等高线估计排列。5.3实现细节GP仿真最常用的两种内核是Mat'ern-方程(14)中的5/2族和高斯族,gGsn(h,θ)。=经验值-h2θ. (32)请注意,内核族的选择修改了超参数的含义,因此直接比较令人担忧。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2025-12-23 20:31