楼主: 何人来此
2008 57

[量化金融] 分布稳健经验优化模型的标定 [推广有奖]

31
大多数88 在职认证  发表于 2022-6-1 17:25:56
Jensen效应的第一项来自x附近xn(0)的变化(0)(见(4.8)),而第二项是由于稳健性增加到溶液中的偏差对Jensen效应的修正,这在(5.6)–(5.7)中进行了讨论。命题5.2的另一种解释是,根据命题4.2中推导出的经验最优xn(0)的样本外报酬的均值和方差(un(0),vn(0)),写出稳健的均值方差前沿(un(δ),vn(δ))。定理5.3。假设φ(z)满足假设2.1,f(x,Y)满足假设3.1和5.1。让常数ρ和θ由(5.7)和(5.12)定义,H(0)和β由(4.7)和(5.15)定义。则un(δ)=un(0)+ρδ2n+δ2[φ′′(1)]β′H(0)-1β+nO(δ)+o(δ),(5.18)vn(δ)=vn(0)+δhφ′(1)β′h(0)-1β+θ2ni+nO(δ)+O(δ)。(5.19)在这种情况下,undδ(0)=ρ2n,dvndδ(0)=φ′′(1)β′H(0)-1β+θ2n,因此与人口边界相反,δ=0时导数非零。在方差的情况下,β′H(0)-1β < 0. 由于项θ2n按系数1/n缩放,对于n足够大的情况,导数为负,方差在δ=0附近提前减小lin。平均值的变化率也是直线26 GOTOH、KIM和LIMbut,对于n足够大,ρ2很小,方差减少将占主导地位。当cr中的δ减小时,(5.18)中的二次项最终占主导地位,此时,由于系数为负值,平均值以递增的速度减小。有趣的是,平均值的边际变化等于稳健性对延斯效应的调整(见(5.4)、(5.6)和(5.7))。综上所述,(5.18)和(5.19)表明,当δ较小而n较大时,xn(δ)下样本外方差的减少明显大于对平均值的影响。当x不受约束时,这些结果适用。

32
大多数88 在职认证  发表于 2022-6-1 17:25:59
如果x受到约束,则平均灵敏度关系(2.6)仍然成立,因此最坏情况下的优化仍在预期下降和灵敏度之间进行权衡,但约束将影响可实现的效率。5.4. DRO的预期回报可以超过SAA。(5.18)中的ρ2nδ一词与Jensen效应有关。特别是,稳健性将经验解的平均值从xn(0)更改为xn(δ),并将其方差从ξ(0)更改为ξ(δ),如(5.6)–(5.7)所示,这将Jensen效应从2ntr更改为2ntrξ(0)H(0)对于经验解xn(0)到2ntrξ(0)H(0)+ρ2nδ。注意,ρ可以是正的,也可以是负的。如果稳健性引入的偏差Δπ减少了Jensen效应的损失,则为正。当发生这种情况时,当δ对于(5.18)中的线性项占主导地位的二次项非常小时,un(δ)大于un(0)。也就是说,虽然DRO是一个最坏情况的问题,但稳健的解决方案可以比SAA解决方案具有更大的样本外预期回报。虽然不能保证ρ为正,但文献[8、17、20]中已根据经验记录了稳健决策下预期回报的改善,这将在我们的一些示例中看到。无论其符号是什么,ρ2nδ相对于方差减少来说都很小,当n→ ∞.5.5. 总结图5.1说明了本文的主要理论见解。

33
nandehutu2022 在职认证  发表于 2022-6-1 17:26:02
这里,(A)是流行分布下的预期报酬EP【f(x,Y)】,(B1)是经验问题解的分布xn(0),(B2)是样本外报酬的分布f(xn(0),Yn+1),(B3)是经验问题的“Jensen效应”;(B1)、(B2)和(B3)分布稳健经验优化模型的校准27(A)(B1)(B2)xun(0)(C1)(C2)(B3)(C3)un(δ)稳健增加了解决方案(D)样本外回归方差的减少。见图5.1。(A) 是人口分布下的预期报酬EP[f(x,Y)]。(B1)、(B2)和(B3)如图4.1所示,而(C1)、(C2)和(C3)是鲁棒性问题的对应项。具体而言,(C1)是robus t解的分布,xn(δ);(C2)是样本外报酬f(xn(δ),Y)在稳健解下的分布;(C3)显示Jensen效应u(δ) - un(δ)。(A)所示为最佳奖励u(0)和u(δ) 人口问题(见(3.1)、(3.5)和(4.6))。如图4.1所示。(C1)、(C2)和(C3)是鲁棒问题的对应项。具体而言,(C1)是稳健解的分布,xn(δ);(C2)是样本外奖励f(xn(δ),Y)在鲁棒解下的分布;(C3)显示Jensen效应u(δ)-un(δ)。(A)所示为最佳奖励u(0)和u(δ) 人口问题(见(3.1)、(3.5)和(4.6))。DRO在预期回报和敏感性之间进行权衡。对于图5.1中的示例,这对应于向经验解添加偏差,将xn(0)推向奖励函数的FL部分。这会将溶液的分布从(B1)更改为(C1),并将样本外奖励的分布从(B2)和(C2)更改为。

34
可人4 在职认证  发表于 2022-6-1 17:26:05
特别是,将解决方案推向目标的FL部分可减少样本外奖励的方差(比较(B2)和(C2)的分布),并将平均奖励从un(0)更改为un(δ)。定理5.3量化了平均值和方差对δ的依赖性。稳健性改变了Jensen效应(0) - un(0),SAA问题为u(δ) - (B3)和(C3)中所示的鲁棒性问题的un(δ)。如ρ的方程式(5.7)所示,Jensen效应大小的变化由28 GOTOH、KIM和LIMsolution的可变性变化以及奖励曲率的变化决定,这也可以在该图中看到。例如,当δ足够小时,鲁棒性问题的Jens效应较小(即ρ>0),鲁棒性会改善样本外预期回报(un(δ)>un(0)),这在第5.4节中进行了讨论。如(D)所示。我们的分析表明,相对于SAA解决方案,当稳健性参数(不确定性集)很小时,在对预期回报影响最小的情况下,可以大幅降低灵敏度。当δ较大时,这些结果并没有说明这种权衡效应,但我们所有实验(第7节)中的稳健性益处在δ中都在减少。这表明“小δ”区域是最有趣的区域。6、稳健优化模型校准建议5.2表明,当模糊度参数δ较小时,方差减少是稳健优化的一阶好处,而对平均值的影响(几乎)要小一个数量级。

35
何人来此 在职认证  发表于 2022-6-1 17:26:08
这意味着δ应通过在样本外平均值和方差之间进行权衡来校准,而不是仅仅通过优化平均值来校准,就像在调整自由参数时通常所做的那样(例如,在机器学习应用中)。然而,观察到稳健的均值方差前沿un(δ),vn(δ): δ ≥ 0o个≡nEP[f(xn(δ),Yn+1)],VP[f(xn(δ),Yn+1)]: δ ≥ 0o决策者无法计算,因为他/她不知道数据生成模型p,因此使用重采样方法近似边界是很自然的。其中一种方法使用我们现在描述的众所周知的引导过程,并在算法1中正式说明。具体而言,假设决策者有一个数据集D={Y,···,Yn}和相关的经验分布Pn。为了近似不同可能数据集(大小为n)的样本外行为,可以通过模拟n个newi生成所谓的引导数据集,称之为D(1)。i、 d.来自经验分布Pn的数据点。与此bootstrap数据集相关的是bootstrap经验分布P(1)n【13】。这个过程可以根据需要重复任意多次,D(j)和P(j)n表示bootstrap数据集,并在重复j生成bootstrap经验分布。我们在算法1中用k表示bootstrap样本数。对于每个D(j)和P(j)n,我们可以通过在分布稳健经验优化模型29组δ的特定校准下,通过解决根据自举经验分布P(j)定义的稳健优化问题,计算(一系列)稳健决策x(j)(δ)(步骤4)。然后,可以计算原始经验分布Pn下x(j)(δ)奖励的均值和方差,我们在步骤5和6中用u(j)(δ)和v(j)(δ)表示。T hek bootstrap样本产生均值-方差对(u(j)(δ),v(j)(δ)),j=1,·k。

36
何人来此 在职认证  发表于 2022-6-1 17:26:11
平均这些值给出了样本外平均方差边界的估计值(步骤7和步骤8)。算法1:稳健解生成的样本外稳健均值方差前沿的Bootstrap估计输入:数据集D={Y,…,Yn};模糊参数网格G={δ,…,δm}。输出:由δ参数化的样本外奖励的均值和方差∈ G、 1代表j← 1至k do2 D(j)← i的引导数据集(Pn中的n个i.i.d.数据点样本)3← 1至m do4 x(j)(δi)← 参数maxxminQnEQf(x,Y)+δiHφ(Q | P(j)n)o,5u(j)(δi)← EPn公司f(x(j)(δi),Y),6 v(j)(δi)← VPnf(x(j)(δi),Y).7^un(δi)←对于所有δi,kkPj=1u(j)(δi)∈ G8^vn(δi)←kkPj=1v(j)(δi)+k-1kPj=1u(j)(δi)- un(δi), 对于所有δi∈ G9返回(μn(δi),μvn(δi)):i=1。。。,m级在下一节中,我们将考虑三个应用,库存控制、投资组合优化和逻辑回归。我们阐述了我们理论的各个方面,并展示了如何使用算法1中给出的bootstraprobust均值-方差边界来有效校准此类设置中的模糊参数。我们考虑三个例子。第一个是鲁棒库存控制问题的模拟实验,说明了我们理论的关键要素,而接下来的两个例子是对真实数据的抽样测试。对于这些实验,惩罚函数Hφ是相对熵。7.1. 例1:库存控制。我们首先考虑一个模拟示例,其中r ewardf(x,Y)=r min{x,Y}- cx。(7.1)这是一个所谓的库存问题,其中x是订单数量(决策),Y是随机需求,r和c是收入和成本参数。30 GOTOH、KIM和Lim需求分布P是两个指数分布Exp(λL)和Exp(λH)的混合,其中λLandλ共享速率参数。这可能对应于具有不同需求特征的两种需求模式(高需求和低需求)。

37
mingdashike22 在职认证  发表于 2022-6-1 17:26:13
对于这个数值示例,我们将平均值设置为λ-1L=10和λ-1H=100,收入和成本参数r=30,c=2。从低端提取需求的概率为0.7(或等效地,从高端提取需求的概率为0.3)。我们进行以下实验。决策者最初显示n个数据点Y,Y从混合分布P中提取i.i.d.然后,决策者在经验分布Pn下优化robustobjective函数,以产生最佳鲁棒订单量xn(δ)。然后从P生成另一个数据点Yn+1,与P个前一个数据点和目标值f(x)无关记录n(δ),Yn+1)。样本外均值和方差EPf(xn(δ),Yn+1)和副总裁f(xn(δ),Yn+1)通过运行经验K次来近似,其中K是一些大数字,每次使用新生成的数据集Y,Yn,Yn+1~ P样本平均值和方差在K次重复中计算。在图7.1中,我们绘制了一对(EPf(xn(δ),Yn+1), 副总裁f(xn(δ),Yn+1)) 对于不同的样品尺寸,n=10、30、50 w,给定线条上的标记对应于δ的不同值;最右标记对应于δ=0(经验)。我们还绘制了“真实”稳健均值-方差边界,即配对(EPf(x(δ) ,Y), 副总裁f(x(δ) ,Y)), 这与n无关。与定理5.3一致,当δ很小时,我们观察到样本外敏感性(方差)显著降低,对样本外预期回报的影响最小。

38
能者818 在职认证  发表于 2022-6-1 17:26:17
我们的理论没有说明δ的大值的影响,尽管我们看到,随着δ的增加,稳健性的好处正在减少,灵敏度降低的速度在减少,预期回报在增加,随着δ的增加。图7.1显示,随着样本量n的增加,样本外均值方差前沿和“真实”稳健均值方差前沿之间的差距变小。这一差距可以用命题5.2来解释,该命题表明这些边界之间的差异应该像O(n)一样变为零-1). 这如图7.2所示,图中绘制了不同n值的样本f前沿和真实前沿下真实前沿之间的最大间隙(大于δ)。在上一节中,我们提出了bootstrap前沿,作为样本外前沿的近似值。接下来,我们将研究不同样本大小n的ap近似的质量。从校准的角度来看,引导边界不必等于样本外边界,只需保持相对形状。例如,如果分布稳健经验优化模型的校准之间的唯一差异为310 0.2 0.4 0.6 0.8 1 1 1.2 1.4 1.6 1.8 2报酬均值报酬方差图7.1。n=10、30和50个数据点的样本外robus t均值方差f前沿,以及在稳健性参数δ不同值的数据生成模型下由DRO解生成的真实前沿。10 20 30 40 50最大边界间隙图7.2。n越大,样本外边界和真实边界之间的差距越大。自举边界和样本外边界是其大小的两倍(均值和方差),使用任一边界时,δ的选择应相同,因为均值和方差之间的相对trade-o效应是相同的。

39
kedemingshi 在职认证  发表于 2022-6-1 17:26:20
根据这一观察结果,在图7.3(A)、(B)和(C)中,我们绘制了归一化自举和样本外f前沿,其中平均值和方差的变化分别被归一化为1,对于不同的样本大小n=10、30、50。很明显,随着样本量的增加,自举边界更接近样本外边界的相对形状。32 GOTOH、KIM和LIM0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1报酬的标准化方差0.20.40.60.81.2标准化平均报酬(a)n=10.0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1报酬的标准化方差0.20.60.81.2标准化平均报酬(b)n=30.0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0 9报酬的标准化方差0.20.40.60.81.2标准化平均报酬(c)n=50。图7.3:。Bootstrap边界与样本外边界(带归一化)。对这两个边界进行缩放和归一化,以便在δ=0(即经验优化)时,均值和方差均等于1,在最稳健的情况下,均值和方差均等于0(δ=100)。我们看到,随着n的增加,与δ的相同值对应的边界上的点收敛。7.2. 示例2:投资组合优化。在第二个应用程序中,我们考虑了来自[14]的“10个行业投资组合”数据集的实际月度回报数据。奖励函数是回报的指数效用SF(x,R)=-经验值-γR′x, (7.2)其中x∈ Rdis投资组合向量(决策变量),R∈ Rdi是随机回报的向量,γ是风险规避参数。为了简化实验,我们选择了分布稳健经验优化模型的风险规避参数校准33γ=1。在本例中,我们施加预算约束1′x=1,并假设资产持有有界,-1.≤ xi≤ 1,i=1。。。,d、 我们进行了以下实验。

40
kedemingshi 在职认证  发表于 2022-6-1 17:26:23
我们有d=10个资产,并且有兴趣了解当我们使用相对较少的数据点(n=50,在1968年至1972年6月的时间段内)估计10维节理分布时,稳健优化和我们的δ校准方法的执行情况。稳健的投资组合将在1972年7月至1976年9月、1976年10月至1980年12月和1981年1月至1985年3月的未来50个月w indows月度回报的经验分布上进行测试,这些分布与培训集不重叠。首先,我们使用1968年4月至1972年6月期间的50个月收益率,针对δ的不同值,解决稳健投资组合选择问题,并使用算法1中描述的bo-otstrap p程序构建稳健均值方差前沿。图7.4显示了这一边界,我们也在其周围标记了+/- 在均值和方差维度上,bootstrap样本的一个标准偏差。经验优化对应于点δ=0,并且根据定理5.3预测,当δ接近0时,与平均值相比,方差显著减少。当δ较大时,我们的理论不适用。然而,它表明,当δ较小时,应预期显著的样本外敏感性降低,对平均值的影响最小,而图7.4表明,稳健性的益处在δ内减少,敏感性(方差)降低率降低,平均值降低率在δ增加时增加。校准和Ou t样本检验:bootstrap frontier估计不同决策的样本外均值和方差,并可用于校准δ。在这个例子中,相对于平均值损失的方差减少率对于δ而言是实质性的≤ 5,但一旦δ超过5,这就开始减少(机器人的成本增加)。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-9 11:25