|
下面的结果显示了策略转换边界的可伸缩公式,这对下一节很重要。定理3.1(策略转换的边界)。假设假设2.1、2.2、2.3和3.1都成立。此外,假设:V→ [~n\'b,~nub] R是一个有界的可测函数,对于每个γ∈ Γ,随机集G-(·,θ)和G?(·,θ,γ)对于每个θ几乎肯定是非空的∈ Θ*. 然后我*[~n](γ)=[I`b[~n](γ),Iub[~n](γ)],其中:I`b[~n](γ)=infθ∈Θmaxλj∈{0,1}Zinfu∈G-(y,z,θ)infy?∈G(y,z,u,θ,γ)ν(v)+u*JXj=1λjmj(y,z,u,θ)!dPY,Z,(3.12)Iub[~n](γ)=supθ∈Θminλj∈{0,1}Zsupu∈G-(y,z,θ)supy?∈G(y,z,u,θ,γ)ν(v)-u*JXj=1λjmj(y,z,u,θ)!dPY,Z,(3.13)式中*∈ R+是任何满足以下条件的值:u*≥ 最大值CC,(k ub)- ~n\'b)Cδ, (3.14)式中,C,Candδ来自假设3.1。证据见附录B。定理3.1指出,识别集的闭凸包I?定义3.3中关于策略变换I的定义[ν](γ)可计算为两个优化问题的解。有趣的是,这些优化问题与受均衡约束的数学规划问题(MPEC)的文献中发现的问题密切相关,这些问题以前在经济学中被应用于社会规划问题和斯塔克伯格博弈。理论3中的上下包络函数。1可能最恰当地描述为惩罚优化问题,带有u*(3.14)惩罚参数的作用。结果的陈述和证明都依赖于变分分析中关于误差界的文献中的精确罚函数理论。该定理使用errorbounds假设3.1,以表明惩罚u*可以被认为是有限的。这对于在前面章节中进行的政策决策问题的理论分析非常重要。
|