|
在KECM算法中,我们迭代过多步和条件M步,以得到Θ的估计值。KECM算法中的E步骤涉及计算期望值o flog p(X(1∶T),y(1)∶(T)θ) p(θ)相对于p(x(1)∶(T)y、 Θ(k))G(θ,Θ(k))=Ep(xy、 Θ(k))对数p(X(1)∶T),y(1)∶(T)θ) +log(p(θ)),其中Θ(k)是k阶上Θ的估计,其中p(θ)是参数sp(θ)=p(θ)p(θ)p(θ)p(θ)g(θ,λ) qinv(λ)-1).λ0 1000 2000 3000 5000 6000×10-30.20.40.60.8q(λ)模式的p(ζ)=0.5,βζ=5模式的p(ζ)=0.7,βζ=2.7143模式的p(ζ)=0.8,βζ=2模式的p(ζ)=0.99,βζ=1.0404图5:λ样本的非标准化直方图。在所有实验中σj~IG(10,0.0011),ζ~ β(5,βζ),σv~ IG(5,6e)-6).这里的完全对数似然是log p(x,y)θ) = -0.5Tt=1log(∑o(t))-Tt=1y(t)-~I(t)x(t)diag(∑o(t)-1),l-T-1日志(Γ)-Tt=2r(t)tΓ-1r(t)+constwhere(t)=x(t)-x(t)-1)-D-j(t)。在哪里Qβ,l=我有智商。众所周知,函数G(θ,Θ(k))服务于a的下界tolog p(θ,y),并且log p(Θ(k),y)=G(Θ(k),Θ(k))[18]。EM方法规定了G(θ,Θ(k))相对于θ的联合最大化。这是因为变量的耦合和问题的非空腔。每个参数的条件最大化更容易处理。因此,我们采用了条件最大化,如theECM[33]算法。条件M步涉及G的坐标最大化。这里条件M步是Θ(k+1)=arg maxθGθ、 Θ(k)、Θ(k)、Θ(k)、Θ(k), Θ(k)Θ(k+1)=arg maxθGΘ(k+1),θ,Θ(k),Θ(k),Θ(k), Θ(k)Θ(k+1)=arg maxθGΘ(k+1),Θ(k+1),θ,Θ(k),Θ(k), Θ(k)Θ(k+1)=arg maxθGΘ(k+1)、Θ(k+1)、Θ(k+1)、θ、Θ(k), Θ(k)Θ(k+1)=arg maxθGΘ(k+1)、Θ(k+1)、Θ(k+1)、Θ(k+1)、θ, Θ(k).
|