楼主: 何人来此
2015 57

[量化金融] 分布稳健经验优化模型的标定 [推广有奖]

11
何人来此 在职认证  发表于 2022-6-1 17:24:50
并希望使用此数据集做出一个在样本之外表现良好的决策。当Y的分布P未知时,自然会优化objectivexn(0)的样本平均近似值:=arg maxxnEPnf(x,Y)≡nnXi=1f(x,Yi)o,(2.2),其中pn是与Y,····,Yn相关的经验分布。然而,在许多情况下,xn(0)在样本外表现不佳,导致经验估计Pn和实际种群分布P之间存在差异。分布稳健经验优化模型的校准7解决此问题的一种方法是优化经验优化问题(2.2)的最坏情况版本。具体而言,设δ>0为正常数,且xn(δ):=arg maxxminQnEQf(x,Y)+δHφ(Q | Pn)o(2.3)是DRO问题的解,其中Hφ(Q | Pn):=Pi:pni>0pniφqipni公司,Pi:pni>0qi=1,qi≥ 0,+∞, 否则,(2.4)是Q=[Q,···,qn]相对于Pn=[Pn,···,pnn]的φ-散度。虽然有φ-散度的重要样本是不光滑的,但我们在本文中始终假设φ是一个凸函数 [0, ∞), φ(1)=0,φ′(1)=0,φ′(1)>0(2.5)(将根据需要说明其他假设)。φ-散度Hφ(Q | Pn)测量替代分布Q与标称Pn的偏差,最坏情况模型(2.3)通过针对最坏情况扰动进行优化,解释了经验分布Pn中的误差。(2.3)中扰动的大小由鲁棒性参数δ控制,该参数决定了对手偏离标称值的惩罚。注意,δ=0给出了经验模型(2.2),并且随着δ的增加,解变得“更加保守”。如【16】所示,如果φ(z)足够小,最坏情况下的优化问题(2.3)几乎与经验平均方差问题相同。

12
nandehutu2022 在职认证  发表于 2022-6-1 17:24:53
具体地说,如果φ(z)满足(2.5)且在z=1的邻域中也是两次连续可微的,那么f(x,Y)+δHφ(Q | Pn)o=EPnf(x,Y)-δ2φ′′(1)VPnf(x,Y)+ o(δ),(2.6),其中vpnf(x,Y):=nnXi=1f(x,Yi)- EPn公司f(x,Yi)是经验分布下报酬的方差。这表明,最坏情况优化(2.3)实际上是一个多目标问题,在最大化预期的正向EPn【f(x,Y)】和最小化其方差VPn之间进行权衡f(x,Y).虽然均值-方差目标已被广泛采用,但通常出于未相关原因而建模不确定性,人们很自然会问,为什么它现在出现在最坏情况下的问题上。结果表明,奖励的方差衡量了名义模型8 GOTOH、KIM和LIMto误判的最坏情况敏感性。直觉上,如果sm与标称Pn的所有偏差都会对预期报酬EPn[f(x,Y)]产生重大影响,那么决策x对误判很敏感。如果奖励分布有较大的传播,则敏感性较大,因为尾部的影响会对平均值产生较大的影响。最坏情况优化器(2.6)试图优化预期回报,同时控制对m IsSpecification(spread)的最坏情况敏感性。这种直觉可以形式化。给定一个标称模型pn和报酬f(x,Y),考虑分布{Q(δ):δ的族≥ 0}其中q(δ):=arg minQnnXi=1qif(x,Y)+δnXi=1pniφqipni公司o、 δ>0,Pn,δ=0。(2.7)直观地,{Q(δ):δ≥ 0}是一系列偏离标称值的最坏情况偏差,偏差的大小以δ为单位增加(对应于(2.7)中φ-散度的较小惩罚)。虽然我们已经从符号中消除了这一点,{Q(δ):δ≥ 0}取决于标称Pn以及奖励f(x,Y)。

13
何人来此 在职认证  发表于 2022-6-1 17:24:56
给出(2.7),我们确定了预期回报的最坏情况敏感性[f(x,Y)],相对于名义模型PnasSPn(f(x,Y)):=-ddδEQ(δ)[f(x,Y)]δ=0= -limδ↓0EQ(δ)[f(x,Y)]-EPn[f(x,Y)]δ。(2.8)以下结果表明,最坏情况敏感性等于方差。我们需要以下假设。假设2.1。φ:R→ R∪ {+∞} 是一个闭凸函数,使得φ(z)≥ φ(1)=0表示z≥ 0,φ(z)=+∞ f或z<0,且在z=1附近连续可微分两次,φ′(1)>0。以下结果的证明见附录F定理2.2。假设φ(z)满足假设2.1。设{Q(δ):δ≥ 0}是(2.7)定义的最坏情况度量族。然后,预期报酬EPn[f(x,Y)]相对于名义Pn(2.8)满意度Pn(f(x,Y))=φ′′(1)VPn[f(x,Y)]的最坏情况敏感性。分布稳健经验优化模型的校准9还可以表明,在不同的误判模型(例如,Wasserstein和CVaR)下,预期回报的敏感性对应于不同的预测指标,并且相关的最坏情况问题是平均敏感性问题。这些结果将在别处报告。当通过相对熵约束确定备选模型族时,最坏情况敏感性也在[18]中讨论了对预期的模拟估计。在这方面,定理2.2适用于所有有效的Smoothφ-散度,而不仅仅适用于相对熵。【3】中提出了方差惩罚,作为控制经验平均CVaR投资组合选择问题的解对数据可变性的敏感性的一种方法,但没有讨论与最坏情况优化的关系。标定

14
何人来此 在职认证  发表于 2022-6-1 17:24:59
稳健优化(2.3)定义了一系列策略{xn(δ):δ≥ 0}即预期回报和敏感性之间的平衡,cr中敏感性的权重在δ中减小。我们的最终目标是确定参数δ的值,以便相应的解xn(δ)在样本外表现良好。虽然δ等参数通常是通过使用bootstrap或交叉验证优化样本外预期回报的某些估计来选择的(例如,Lasso或Ridge回归中的正则化参数),但特征描述(2.6)表明,最坏情况优化是一个多目标问题,这表明,应使用平均值和方差(即敏感性)的估计值来选择δ。我们通过描述稳健性参数对无样本报酬均值和方差的影响,为这种方法提供了指导。约束DRO模型。DRO模型(2.3)的“惩罚版本”的替代方案定义了一组根据偏差度量的硬约束定义的替代模型maxxminQEQ[f(x,Y)]受限于:Hφ(Q | Pn)≤ .(2.9)与刑罚版本一样,这导致了一系列决定{xn():≥ 0}由(2.9)中的约束阈值参数化。利用充分的正则性,惩罚和约束版本通过凸对偶相关联,因为(2.3)的解为某种和反之亦然的选择解(2.9);有关更多详细信息,请参见[4]的推论3。具体而言,(2.9)的解是通过用δ求解(2.3)得到的≡ δn()xn()=arg maxnminqeq[f(x,Y)]+δn()Hφ(Q | Pn)o(2.10)10 GOTOH、KIM和Lim,其中δn():=arg maxδ≥0nmaxxminQEQ[f(x,Y)]+δHφ(Q | Pn)-δo,(2.11),两个模型生成相同的解族。

15
可人4 在职认证  发表于 2022-6-1 17:25:04
因此,我们专注于开发一种在模型的惩罚公式中选择δ的方法,并理解它可以应用于在约束问题中选择。DRO警告。对于本文的其余部分,除非另有说明,否则提供的所有索赔、发现和证据都是针对表格(2.3)中的DRO问题。φ-发散惩罚的条件和奖励函数f(x,Y)将根据需要说明。稳健解的统计:渐近正态性第2节的结果表明,稳健优化是一个多目标问题,在最大化预期回报和最小化其方差之间取得平衡。在本节中,我们描述了鲁棒解xn(δ)的统计性质。这些结果将在以下部分中用于研究奖励的样本外平均值和方差(敏感性)。本节中的结果使用了样本平均优化器的一致性(定理5.4,[23])和渐近正态性(定理5.21,[25])的一般结果,这些结果在附录A中再现。通常会对f(x,Y)施加以下正则性假设。[23]和[25]的结果可以在更宽松的假设下应用,尽管这不会带来更多的见解。设f:Rd×Rl→ R、 Y是分布为P和x的Rl值R和dom向量(0):=arg maxxnEP[f(x,Y)]o(3.1)是人口分布P下预期报酬的最大化者。假设3.1。

16
mingdashike22 在职认证  发表于 2022-6-1 17:25:07
函数f(x,Y)与随机向量Y~ P是这样的of(x,Y)是严格凹的,并且在x中连续两次可微∈ Rdfor P-几乎每Y∈ Rl;o对于每个固定x∈ Rd,映射y 7→ f(x,y),xf(x,y),xf(x,y),y∈ Rl是可测的,且随机变量f(x,Y)的所有矩,xf(x,Y),xf(x,Y)存在;o存在解决方案x第(0)页,共(3.1)页。分布稳健经验优化模型11的校准根据假设3.1,Hessian矩阵EPxf(x,Y)是每个x的负定义(0)是唯一的。还要注意,假设3.1不需要(2.6)来保持。同样,如果x受到约束,最坏情况下的优化和均值-方差优化之间的关系仍然成立,那么这些约束将影响平均敏感度的效率,从而可以实现回报。以下结果表征了经验优化问题解的渐近性质,并紧随附录A命题3.2中所述的[23]和[25]中的结果。假设f(x,Y)满足假设3.1。让x(0)是优化问题(3.1)的解决方案。

17
kedemingshi 在职认证  发表于 2022-6-1 17:25:11
那么经验优化问题(2.2)的解xn(0)是一致的,xn(0)P-→ x个(0),且渐近正态√nxn(0)- x个(0)D-→ N(0,ξ(0)),作为N→ ∞,其中协方差矩阵ξ(0)=VPhEPxf(x(0),Y)-1.xf(x(0),Y)i√nxn(0)- x个(0)=pξ(0)Z+oP(1),其中pξ(0)是一个d×d矩阵,使得pξ(0)pξ(0)′=ξ(0),Z是一个d维标准正态随机向量。我们现在考虑robus t问题(2.3)解xn(δ)的渐近分布。φ-散度的双重表征意味着xn(δ)可以通过求解(xn(δ),cn(δ))=arg minx,c得到c+δEPnhφ*δ(-f(x,Y)- c)我, (3.2)式中φ*(ζ) :=supzzζ- φ(z)是φ(z)的凸共轭。Ifψ:Rd×R→ Rd+1由ψ(x,c)给出:=(φ*)′-δ(f(x,Y)+c)xf(x,Y)-φ′′(1)δ(φ*)′- δ(f(x,Y)+c)- 1., (3.3)12 GOTOH、KIM和Lim(xn(δ),cn(δ))的一阶条件为ψ(x,c)=EPnh(φ*)′- δ(f(x,Y)+c)xf(x,Y)iEPnh-φ′′(1)δ(φ*)′- δ(f(x,Y)+c)- 1.我=. (3.4)类似地,让(x(δ) ,c(δ) )=参数最小值,cc+δEPhφ*δ(-f(x,Y)- c)我(3.5)是具有一阶条件sep[ψ(x,c)]=EPh(φ*)′- δf(x,Y)+cxf(x,Y)iEPh-φ′′(1)δ(φ*)′- δ(f(x,Y)+c)- 1.我=. (3.6)Letξ(δ)∈ Rd×d,η(δ)∈ R、 和κ(δ)∈ Rd×1be矩阵的条目xv(δ):=ξ(δ) κ(δ)κ(δ)′η(δ)= A.-1BA-1′,其中:=EP[-Jψ(x(δ) ,c(δ))] ∈ R(d+1)×(d+1),B:=EP[ψ(x(δ) ,c(δ) )ψ(x)(δ) ,c(δ))′] ∈ R(d+1)×(d+1),Jψ表示ψ的雅可比矩阵。以下结果的第一部分表明(xn(δ),cn(δ))是一致的,并且是联合渐近正态的,而第二部分则根据δ较小时电磁分布xn(0)的极限分布来描述其极限分布。

18
何人来此 在职认证  发表于 2022-6-1 17:25:14
使用[23]和[25]的一般结果(附录ix A),可以建立一致性和渐近正态性。然而,HF(x,Y)和φ(x)都需要有足够的正则性,与命题3.2相比,除了命题3.1外,还需要假设2.1。定理3.3。假设φ(z)满足假设2.1,f(x,Y)满足假设3.1。设(xn(δ),cn(δ))为稳健经验优化问题(3.2)和(x)的解(δ) ,c(δ) )解决种群分布P下的鲁棒问题(3.5)。然后(xn(δ),cn(δ))是一致的。我们添加了一个标度常数-第二个方程中的φ′′(1)δ。这不会影响一阶条件的解,但会使子成分分析更加方便。用(xn(δ),cn(δ))P校准分布稳健经验优化模型13-→ (十)(δ) ,c(δ) )和联合渐近正态√nxn(δ)-x个(δ)D-→ N(0,ξ(δ)),√ncn(δ)-c(δ)D-→ N(0,η(δ)),(3.7)N CovPhxn(δ),cn(δ)i-→ κ(δ),作为n→ ∞. 特别地,√nxn(δ)-x个(δ)=pξ(δ)Z+oP(1),其中pξ(δ)是一个d×d矩阵,使得pξ(δ)pξ(δ)′=ξ(δ),Z是一个d维标准正态随机向量。进一步Morex(δ) =x(0)+πδ+o(δ),(3.8)c(δ) = -EP[f(x(0,Y)]+O(δ),其中π:=φ′(1)EP公司[xf(x(0,Y)]-1卵黄xf(x(0),Y),f(x(0),Y)i,(3.9)和v(δ)=ξ(δ) κ(δ)κ(δ)′η(δ)=ξ(0) κ(0)κ(0)′η(0)+ O(δ),其中ξ(0)=VPhExf(x(0),Y)-1.xf(x(0),Y)i,η(0)=VP[f(x(0,Y)],κ(0)=EP公司[xf(x(0,Y)]-1 COVPxf(x(0),Y),f(x(0),Y).证据(xn(δ),cn(δ))的一致性和渐近正态性(3.7))来自于[23]和[25]中关于样本平均问题解的分布性质的一般结果;见附录A和B。

19
大多数88 在职认证  发表于 2022-6-1 17:25:17
为了证明(3.8),我们首先证明(x(δ) ,c(δ) )在δ=0的邻域内连续可微,然后我们使用优化问题(3.2)的一阶条件(3.4)推导泰勒级数展开式(3.8)和渐近偏差表达式(3.9)。详情见附录C。14 GOTOH、KIM和Lim定理3.3(渐进地)表明,稳健优化将偏差π分配给经验解,其中偏差的大小由稳健参数δ决定。可以看出,π优化了预期回报损失与约化不变性之间的权衡:π=arg maxπnδπ′EPhxf(x(0),Y)iπ-φ′′(1)π′CovPf(x(0),Y),xf(x(0),Y)≡ EP公司f(x(0)+Δπ,Y)-EP公司f(x(0),Y)-δ2φ′′(1)副总裁f(x(0)+Δπ,Y)- 副总裁f(x(0),Y)+ o(δ)o.溶液的可变性。已经证明[5、9、15、26],各种最坏情况下的回归和分类问题相当于这些问题的正规化版本(即,岭回归/分类、L asso等)。一个应用是,稳健性会导致与正则化相关的偏差方差转换,通过将其收缩到原点来减少解决方案的方差。另一方面,我们在定理3.3中表明,稳健性在π方向上增加了SAA解的偏差,并将其方差从ξ(0)/变为ξ(δ)/n。很自然地,我们会问,这是否对应于向原点的收缩和解方差的减少(当奖励函数为凹函数时,可能是s)。下面的例子表明情况并非如此,鲁棒性可以同时使SAA解决方案偏离原点并增加其方差,即使奖励函数是凹的。

20
nandehutu2022 在职认证  发表于 2022-6-1 17:25:20
更一般地,(2.6)表明,DRO控制奖励的方差(敏感性),但在某些特殊情况下,仅等同于正则化解决方案。Letf(x,Y)=Y h(x)- x、 其中,随机变量Y与分布P为正。我们假设h(x)=x-a/(-a) (a>0),但我们将在本示例后面的部分中仅用此表达式替换h(x)。给定样本Y、···、Yn~ Y的P,经验问题(2.2)的解xn(0)是方程^Ynh′(x)的解- 1=0,其中随机变量^Yn=(Y+····+Yn)/n。分布式稳健经验优化模型的校准15对于具体性,假设稳健问题(2.4)中的偏差度量值为修正χ(参见,例如,[16])。对于某些πn,写入xn(δ)=xn(0)+πnδ+o(δ),(2.6)implexn(δ)=xn(0)+δ的一阶条件^σYn^Ynh(xn(0))h′(xn(0))+o(δ),其中^σYn是Y的样本标准偏差,^σYn/^Yn是其变异系数的估计值。当h(x)=x时-a/(-a) ,我们有h′(x)=x-一-1和h′(x)=-(a+1)x-一-2,soxn(δ)=xn(0)+δa(a+1)xn(0)^σYn^Yn+ o(δ)。观察xn(0)=^Ya+1。与套索或脊线相反,套索或脊线会将样本平均解收缩到原点,而引入的稳定性会产生正偏差,从而将其推开。稳健解的方差由VP[xn(δ)]=VP[xn(0)]+2δa(a+1)CovPhxn(0),xn(0)给出^σYn^Yni+o(δ)。因此,如果xn(0)和xn(0)的协方差^σYn^Yn为正,即CovP[xn(0),xn(0)^σYn^Yn] > 0时,稳健性增加了s解的方差。图3.1中的上图显示了当Y以平均值1指数分布,a=0.05,且有n=10个数据点时,xn(0)和xn(δ)的d分布。下图显示了目标函数EP[f(x,Y)]。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-10 13:44