|
并希望使用此数据集做出一个在样本之外表现良好的决策。当Y的分布P未知时,自然会优化objectivexn(0)的样本平均近似值:=arg maxxnEPnf(x,Y)≡nnXi=1f(x,Yi)o,(2.2),其中pn是与Y,····,Yn相关的经验分布。然而,在许多情况下,xn(0)在样本外表现不佳,导致经验估计Pn和实际种群分布P之间存在差异。分布稳健经验优化模型的校准7解决此问题的一种方法是优化经验优化问题(2.2)的最坏情况版本。具体而言,设δ>0为正常数,且xn(δ):=arg maxxminQnEQf(x,Y)+δHφ(Q | Pn)o(2.3)是DRO问题的解,其中Hφ(Q | Pn):=Pi:pni>0pniφqipni公司,Pi:pni>0qi=1,qi≥ 0,+∞, 否则,(2.4)是Q=[Q,···,qn]相对于Pn=[Pn,···,pnn]的φ-散度。虽然有φ-散度的重要样本是不光滑的,但我们在本文中始终假设φ是一个凸函数 [0, ∞), φ(1)=0,φ′(1)=0,φ′(1)>0(2.5)(将根据需要说明其他假设)。φ-散度Hφ(Q | Pn)测量替代分布Q与标称Pn的偏差,最坏情况模型(2.3)通过针对最坏情况扰动进行优化,解释了经验分布Pn中的误差。(2.3)中扰动的大小由鲁棒性参数δ控制,该参数决定了对手偏离标称值的惩罚。注意,δ=0给出了经验模型(2.2),并且随着δ的增加,解变得“更加保守”。如【16】所示,如果φ(z)足够小,最坏情况下的优化问题(2.3)几乎与经验平均方差问题相同。
|