|
对最优策略的近似值也进行了分析,结果表明,在阶数上没有对应关系√. 尽管如此,我们仍然能够证明,在第3.2节中推导出的前导阶策略能够重新生成有序的问题值√因此,它在所有容许策略内都是渐近最优的。我们注意到,这仅在电力公司的情况下得到证明,与一般情况一样,MDT不适用于一般公司或多因素模型,也不适用于全部问题值的扩展。然而,我们可以在一个较小的可容许策略类中工作,并且可以很容易地扩展第3.3节中的“ε鞅分解”参数,以获得π(0)的较弱最优性。对于一般公用事业案例,这一论点与我们之前的工作非常相似【Fouque和Hu,2017b,2018,第4节】,我们在这里没有包括它。多因素案例涉及更多技术,将在另一篇论文《准备工作》Hu【2018a】中介绍。一个技术引理在这一节中,我们介绍了在第3节中使用的几个引理。请注意,所有引理中的常数K,K′都不依赖于,并且可能因行而异,我们表示函数G(y)a sG(y)=(λ(y)-λ) ,和kXkp:=(EXp)1/pas X.引理A.1的Lp范数。(i) (3.6)中定义的鞅ψtde:ψt=E“ZTG(Y,Hs)dsGt#,满足ψt=θtdWYt,θt:=中兴通讯G′(Y,Hs)| GtK(s)- t) ds。此外,对于所有t∈ [0,T]我们有[λ(Y,Ht)T]=√D+eDt,其中D是确定性常数,Dt的阶数高于√:sup∈[0,1]支持∈[0,T]-1/2eDt< ∞, 和t型∈ [0,T),lim→0-1/2eDt= 定义随机过程κtbyκt=Zt(θsλ(Y,Hs)-√D)ds。
|