|
对于任何b≥ 0,上述折射反射策略πb的容许性来自于[23]中的引理3.1。我们用vb(x):=Ex“Zζe表示相应的预期净现值-qtdL(0,b)(t)- βZ[0,ζ)e-qtdR(0,b)(t)+e-qζw(U(0,b)(ζ))#=Ex“Z∞e-αtdL(0,b)(t)- βZ[0,∞)e-αtdR(0,b)(t)+rZ∞e-αtw(U(0,b)(t))dt#。(4.4)备注4.2。如果函数w:[0,∞) 7.→ R是有界的,然后通过使用(4.1)和(4.4),我们得到了anyb的有界值≥ 0,| vb(x)|≤Δα+βEx“Z[0,∞)e-αtdR(0,b)(t)#+supx≥0 | w(x)| rα≤αδ+r supx≥0 | w(x)|+ βE“Z[0,∞)e-αtdR(0,b)(t)#<∞, x个≥ 0,其中第二个不等式来自映射x 7→ ExhR[0,∞)e-αtdR(0,b)(t)不增加。因此vbis有界。10 K.NOBA、J.L.P'EREZ和X.Yu下一个结果证实了辅助问题的障碍型红利控制的最优性。定理4.1。在假设4.1、4.2和4.3下,存在持续屏障0≤ b*< ∞ 这样,折射率反映了b级的战略*, i、 e.πb*, 是最优的,值函数由v(x)=vb给出*(x) =vπ*(x) 对于allx≥ 0、我们现在在随后的小节中提供了理论4.1中最优策略的构造和验证。4.3. vb的计算。利用【21】中的结果,我们得到了b级再细分反应策略的预期净现值(4.4)的以下等效形式≥ 0、提案4.1。
|