|
例如,如果我们知道时间序列是零均值[1],[12],即φ=0,则应将φ(k+1)和φ(k+1)的更新替换为φ(k+1)=0,(38)算法1 SAEM-MCMC算法,用于学生的t A R(1)1:初始化θ(0)∈ Θ,^s(0)=0,k=0,y(0,l)mfor l=1,2,L2: 对于k=1,2。do3:模拟:4:对于l=1,2,L do5:来自p的样本τ(k,L)τ| y(k-1,l)m,yo;θ(k)usingLemma 1,6:样品y(k,l)mfor pym |τ(k,l),yo;θ(k)usingLemma 2.7:结束8:随机预测:评估^s(k)和^Qθ、 ^s(k)分别如(22)和(23)所示。9: 最大化:更新θ(k+1),如(3-4)、(35)、(36)和(37)所示。10: 如果满足停止c标准,则11:终止循环12:结束if13:结束forandД(k+1)=^s(k)^s(k),(39)如果已知时间序列遵循随机游走模型[14],这是AR(1)模型的特殊情况,且Д=1,则应将Д(k+1)和Д(k+1)的更新替换为Д(k+1)=^s(k)- ^s(k)^s(k),(40)和Д(k+1)=1。(41)D.AR(p)的泛化上述ML估计方法可立即泛化为学生的t AR(p)模型:yt=Д+pXi=1Дiyt-i+εt,(42),其中εti。i、 d。~ t型0, σ, ν. 同样,我们可以应用SAEMMCM算法,通过考虑τandymas潜在数据和yoas观测数据来获得估计。在每次迭代中,我们根据条件分布p得出τ和ym的一些实现ym,τ| yo;θ(k)近似经验函数Qθ|θ(k), 最大化近似值^Qθ|θ(k)更新估算。主要区别在于,AR(p)的条件分布将比AR(1)的条件分布更加复杂,因为AR(p)的每个样本都更依赖于之前的样本。
|