楼主: 何人来此
2014 57

[量化金融] 分布稳健经验优化模型的标定 [推广有奖]

51
nandehutu2022 在职认证  发表于 2022-6-1 17:27:11
该结果的第一部分涉及到鲁棒解的收敛性,是命题B.1(对于(xn(δ),cn(δ))的一致性)和命题C.1(对于渐近正态性结果(3.7))的直接结果。这个定理的第二部分,即我们现在证明的,描述了当δ很小时,(xn(δ),cn(δ))的极限分布与经验分布xn(0)的极限分布之间的关系。我们首先展示(x(δ) ,c(δ) )存在并持续可区分,然后,我们使用其t阶条件(3.4)获得(x)的展开式(3.8(δ) ,c(δ) )和渐近偏差π的表达式(3.9)。(x)的存在性和连续可微性(δ) ,c(δ) ):我们使用隐函数定理来证明(x)的存在性并确定其光滑性(δ) ,c(δ) )和一阶条件来推导展开式。轻微滥用符号,letg(δ,x,c):=g(δ,x,c)g(δ,x,c):= EP[ψ(x,c)]。(3.2)的一阶条件为(δ,x,c)=0,(c.1)在φ(z)的假设下(见[16]中的定理3.2])校准分布稳健经验优化模型43凸共轭φ*(ζ) 在ζ=0和s atiesφ附近可连续两次微分*(ζ) = ζ +α2!ζ+o(ζ),(C.2),其中α=φ′(1)。因此,[φ*]′(ζ) =1+αζ+o(ζ)在ζ=0的邻域内连续可微。这意味着,对于每个固定的(x,c),g(δ,x,c)在δ=0的某个邻域中δ连续可微,即g(δ,x,c)=EPh公司xf(x,Y)i-Δφ′′(1)EPhf(x,Y)+cxf(x,Y)i+o(δ)EPhf(x,Y)+ci+o(δ),还有那个0,x(0), -EP[f(x(0)),Y)]= 0,(C.3),其中x(0)是经验问题的解决方案。

52
大多数88 在职认证  发表于 2022-6-1 17:27:14
由于f(x,Y)在x中可连续二次微分,g(δ,x,c)在0,x(0), -EP[f(x(0,Y)],andJg,(x,c)(δ,x,c)(0,x(0), -EP[f(x(0,Y)])≡xg(δ,x,c)cg(δ,x,c)xg(δ,x,c)cg(δ,x,c)(0,x(0), -EP[f(x(0,Y)])=EP公司[xf(x(0,Y)]00 1是可逆的。根据隐式函数定理(x(δ) ,c(δ) )存在,并且在开放的八分之一或八分之一区域内持续可区分0,x(0), -EP[f(x(0,Y)], sox公司(δ) =x(0)+πδ+o(δ),(C.4)C(δ) = -EP[f(x(0,Y)]+cδ+o(δ)=-EP[f(x(0),Y)]+O(δ)44 GOTOH,KIM,和LIMin这一带。泰勒级数展开:我们已经有了(C.4)。要计算π,ob从(C.1)thatEPh(φ)开始*)′-δ(f(x(δ) ,Y)+c(δ))xf(x(δ) ,Y)i=EPhxf(x(0),Y)+δxf(x(0),Y)π+o(δ)i-Δφ′′(1)EPhxf(x(0),Y)f(x(0),Y)- EP[f(x(0,Y)]+ o(δ)i=δnepxf(x(0),Y)iπ-φ′′(1)CovPf(x(0),Y),xf(x(0),Y)o+o(δ)=0。π的表达式(3.9)使得δ阶项消失。为了获得V(δ)的表达式,从(C.2)中观察,我们可以将(3.3)写成ψ(x,C)=xf(x,Y)-δφ′′(1)f(x,Y)+cxf(x,Y)+o(δ)f(x,Y)+c+o(δ)≡ψ(x,c)ψ(x,c).这意味着Jψ,ψ(x,c)的雅可比矩阵xψ。xmψcψxψ。

53
大多数88 在职认证  发表于 2022-6-1 17:27:17
xmψcψ(十)(δ) ,c(δ)) =xf(x(0),Y)+O(δ)O(δ)xf(x(0),Y)′+O(δ)1hen ceA=EP[-Jψ(x(δ) ,c(δ))] =-EP公司xf(x(0),Y)0-1.+ O(δ),soA-1= -EP公司xf(x(0),Y)-10 1+ O(δ)=A-1′.同样,ψ(x(δ) ,c(δ)) =xf(x(0),Y)f(x(0),Y)-EP[f(x(0,Y)]+ O(δ),结果表明,我们的分析中不需要cis的值,但如果φ(z)是连续可微的三倍,则可以显示c=-φ′′′(1)[φ′′′(1)]VPf(x(0),Y).分布稳健经验优化模型的校准45soB=EPψ(x)(δ) ,c(δ) )ψ(x)(δ) ,c(δ))′=副总裁xf(x(0),Y)CovP公司xf(x(0),Y),f(x(0),Y)CovP公司xf(x(0),Y),f(x(0),Y)′副总裁f(x(0),Y)+ O(δ)。V(δ)=A的表达式-1B(A-1) \'现在跟着。附录D.命题证明4.1泰勒级数im-pliesf(x+δ, Yn+1)=f(x,Yn+1)+δ′xf(x,Yn+1)+δtr′xf(x,Yn+1)+ o(δ)。我们通过期望并注意到 Yn+1是独立的。

54
kedemingshi 在职认证  发表于 2022-6-1 17:27:21
推导(4.3)首先观察EPf(x+δ, Yn+1)= EP公司f(x,Yn+1)+ 2δEPf(x,Yn+1)EP公司[]′EP公司xf(x,Yn+1)+δn2 trEP公司EP公司′EP公司xf(x,Yn+1)EP公司xf(x,Yn+1)′+2 trEP公司′EP公司f(x,Yn+1)EP公司xf(x,Yn+1)o=EPf(x,Yn+1)+ 2δEPf(x,Yn+1)EP公司[]′EP公司xf(x,Yn+1)+δtr2 EP′nEP公司xf(x,Yn+1)EP公司xf(x,Yn+1)′+ EP公司f(x,Yn+1)EP公司xf(x,Yn+1)o-2副总裁[] EP公司xf(x,Yn+1)EP公司xf(x,Yn+1)′,而对泰勒级数展开式两边的期望值[f(x+δ, Yn+1)]给定seph[f(x+δ, Yn+1)]i=EPh[f(x,Yn+1)]i+2δEP[]′EPhf(x,Yn+1)xf(x,Yn+1)i+δtrEP公司[′]n2 EPxf(x,Yn+1)xf(x,Yn+1)\'+ 2 EPf(x,Yn+1)xf(x,Yn+1)o+ o(δ)。46 GOTOH,KIM和LIMIt现在跟在Vp[f(x+δ)后面, Yn+1)]=VP[f(x,Yn+1)]+2δEP[]′CovP公司f(x,Yn+1),xf(x,Yn+1)+δntrEP公司[′]n2VPxf(x,Yn+1)+ 2 CovPf(x,Yn+1),xf(x,Yn+1)o+2 tr副总裁[] EP公司xf(x,Yn+1)EP公司xf(x,Yn+1)′o+o(δ)。什么时候 是常数,导数的定义意味着(4.4)和VP[f(x+δ)的展开, Yn+1)]可写成(4.3)。附录E.命题4.2的证明我们知道(4.1)中的命题3.2。现在,它遵循命题4.1(带 ≡pξ(0)Z和δ=√n) 那个副总裁f(xn(0),Yn+1)= 副总裁fx个(0)+rξ(0)nZ+oP(1), Yn+1= 副总裁f(x(0),Yn+1)+√nEPh公司pξ(0)Z′iCovP公司f(x(0),Yn+1),xf(x(0),Yn+1)+第2次EP公司pξ(0)ZZ′pξ(0)′xVP公司f(x(0),Yn+1)+2伏pξ(0)ZEP公司xf(x(0),Yn+1)EP公司xf(x(0),Yn+1)′+ on.注意Z是标准法线,EPpξ(0)ZZ′pξ(0)′= ξ(0),和EPxf(x(0),Yn+1)= 0(定义为x(0),得到(4.9)。经验最优下的预期样本外利润的表达式(4.8)可以用同样的方法推导出来。附录F.最坏情况敏感性考虑概率测度族{Q(δ):δ≥ 0}定义为(2.7)。

55
mingdashike22 在职认证  发表于 2022-6-1 17:27:24
我们首先描述了Q(δ)的性质,然后证明了最坏情况下的灵敏度(2.8)是由Pn下的r向方差给出的。方差和扩展的这种解释(2.6)允许我们将最坏情况下的优化解释为最大化分布稳健经验优化模型的校准47标称分布下的预期回报与最小化模型误判的最坏情况敏感性之间的权衡。为了便于记法,我们表示f=[f,···,fn]≡ [f(x,Y),····,f(x,Yn)]。提案F.1。假设φ(z)满足假设2.1。那么f或δ>0非常小,最坏情况分布q(δ)=[q*(δ) ,···,q*n(δ)],其中q*i(δ)=qi(c(δ) ,δ)(F.1),其中qi(c,δ)=pni[φ′]-1.δ- 金融机构- c,c(δ) =arg maxcn-δnXi=1pniφ*δ- 金融机构- c- co(F.2)Q(δ)在δ=0的邻域内与Q连续可微*i(δ)=Pni1-δφ′′(1)金融机构- EPn【f】o+o(δ)。(F.3)证明。Letf公司(δ) :=infQnnXi=1qifi+δnXi=1pniφqipni公司o、 表示拉格朗日(q,c;δ)=nXi=1qifi+δnXi=1pniφqipni公司+ cnXi=1qi- 1..然后(δ) =maxcminqL(q,c;δ)=maxcminqnnXi=1qifi+δnXi=1pniφqipni公司+ cnXi=1qi- 1.o、 式中,第二个等式中的最小值q(c;δ)=arg m inqnnXi=1qifi+δnXi=1pniφqipni公司+ cnXi=1qio=[q(c;δ),····,qn(c;δ)],48 GOTOH,KIM,和LIMwhereqi(c;δ)=arg Maxqingipniδ- 金融机构- c- φqipni公司o=pni[φ′]-1.δ- 金融机构- c.利用反函数定理,[φ′]-1(ζ)在ζ=0的邻域中连续可微,因为φ′(1)=0且φ′′(1)>0。还要注意,如果z(ζ)=φ-1(ζ),或等效地,φ′(z(ζ))=ζ的解,soφ′(z(ζ))z′(ζ)=1,因此[φ-1] ′(ζ)=φ′(z(ζ))和φ-1(ζ)=1+ζφ′(0)+o(ζ)。(F.4)现在考虑F定义中的外部问题.

56
mingdashike22 在职认证  发表于 2022-6-1 17:27:27
观察minqnnxi=1qifi+δnXi=1pniφqipni公司+ cnXi=1qi- 1.o=-δnXi=1pniφ*δ- 金融机构- c- c、 其中φ*(ζ) =maxznζz- φ(z)o(F.5)是φ的凸共轭,外部问题的解是(δ) =arg maxcn-δnXi=1pniφ*δ- 金融机构- c- co.(F.6),因为优化器z(ζ)=[φ′]-在(F.5)的定义中,1(ζ)在ζ=0的高边界中持续变化,因此φ*(ζ) =z(ζ)ζ- φ(z(ζ))和φ*(ζ) 在ζ=0的邻域中可与[φ]微分*]′(ζ) =z′(ζ)ζ+z(ζ)-φ′(z(ζ))z′(ζ)=z′(ζ)ζ - φ′(z(ζ))+ z(ζ)=z(ζ),分布稳健经验优化模型的校准49,其中第二个等式遵循f或定义z(ζ)的一阶条件。这意味着[φ*]′(ζ) 在ζ=0和[φ]附近也是连续可微的*]′′(ζ) =z′(ζ)=φ′(z(ζ))。因此,φ*(ζ) 在ζ=0的邻域中,是两次连续可微的,[φ*]′(0) =φ′-1(0) = 1,[φ*]′′(0)=φ′′(0),soφ*(ζ) =ζ+φ′′(0)ζ+o(ζ)。返回c(δ) ,观察对应于(F.2)arenXi=1pni[φ]的一阶条件*]′δ- 金融机构- c- δ>0时,1=0,(F.7)。或者,我们可以定义(δ,c):=-φ′′(1)δnnXi=1pni[φ*]′δ- 金融机构- c- 1o,δ>0,EPn[f]+c,δ=0。当δ>0时求解(F.7)w等于求解c(δ) 这样g(δ,c(δ)) = 0. (F.8)g(δ,c)的一个方便性质是,它在δ=0 F或每个c的邻域内是连续的。特别是,对于每个固定的cg(δ,c)=nXi=1pnifi+c+ O(δ)。(F.9)我们还有(δ,c)=(0,-En[f])是g(δ,c)=0的解。

57
kedemingshi 在职认证  发表于 2022-6-1 17:27:30
观察到g(c,δ)在(δ,c)=(0)附近的(δ,c)中是连续可微的,-En【f】),以及cg(0,-EPn[f])=1,根据隐式函数定理,解c(δ) ,因此(F.7)在δ=0的邻域中可连续微分(0) = -EPn【f】。50 GOTOH、KIM和Lim两种c(δ) 和[φ′]-1(ζ)表示q*由(F.1)定义的i(δ)在δ=0的邻域内是连续可微的。自c起(δ) = -EPn[f]+O(δ),它来自于(f.3)所持有的展开式(f.4)。定理2.2的证明。由(F.3)可知,eq(δ)[F]=nXi=1qi(δ)fi=EPn[F]-Δφ′′(1)nXi=1pni金融机构- EPn【f】fi+o(δ)=EPn[f]-Δφ′′(1)VPn[f]+o(δ),我们的结果如下。附录G.DRO模型约束和惩罚公式之间的关系和δ之间的关系。假设Pn是给定的标称模型。凸对偶意味着约束样本内问题(2.9)的解就是优化问题的解(见(2.10)–(2.11))(xn(),δn())=arg maxδ≥0,xnminQEQ[f(x,Y)]+δHφ(Q | Pn)-δo=arg maxδ≥0,xnEPnf(x,Y)-δ2φ′′(1)VPnf(x,Y)-δ+o(δ),其中平均方差近似值在(2.6)中给出,当δ较小时适用。Wr iting xn()和δn()的顺序为√可以看出,xn()=xn(0)+s2φ′′(1)VPn[f(xn(0),Y)]πn+o(√),δn()=s2φ′(1)VPn[f(xn(0),Y)]+o(√),其中xn(0)是样本内问题的SAA解和名义分布pn,Y~ Pn编号≡ [pn,···,pnn],πn=φ′(1)EPn公司[xf(xn(0),Y)]-1CovPnf(x,Y),xf(xn(0),Y).分布式稳健经验优化模型的校准51这意味着,与稳健参数δ相对应的阈值约为=VPn[f(xn(0),Y)]2φ′′(1)δ。概率解释。

58
kedemingshi 在职认证  发表于 2022-6-1 17:27:34
Hφ(Q | Pn)的分布可以通过从标称分布Pn中自举数据Y,················································yn。这允许我们将in(2.9)解释为1- Hφ(Q | Pn)分布的α量,其中α是pnhhφ(Q | Pn)≤ i≈ 1.- α. (G.1)从我们在第7节中的示例中可以看出,很难估计相关的质量1- 当δ或位于稳健均值方差前沿的期望部分时,模拟得到的α。如果仍希望估计特定δ或的α,我们可以使用φ-发散的渐近性质,如果φ(z)是充分正则的,并且数据生成机制P的支持是有限的(见[4])。在这些条件下,2nφ′(1)Hφ(Q | Pn)~ χn-1(n的χ分布- 如果和α的值为2n=χn,则(G.1)满足-1, 1-α、 1号- χn的α分位数-1、如果我们的目标是“优化”样本外平均值和奖励敏感度之间的权衡,那么似乎没有什么理由通过一致性水平α来计算和/或解释不确定性集。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-10 06:02