|
阅读4个小时,累积阅读16个小时。
依旧是延续昨天的Chib有关marginal likelihood的算法。如果把模型中的参数$\theta$分为两块,即$(\theta_1, \theta_2)$,那么,后验分布可以写成
\[\pi(\theta_1, \theta_2|y) = \pi(\theta_1|\theta_2,y)\pi(\theta_2|y)\,,\]
其中手边式子中的有条件概率分布在进行Gibbs抽样的时候,我们是已经知道的,关键就是第二个。方法是
\[\pi(\theta_2|y) = \int\pi(\theta_1,\theta_2|y)d\theta_1 = \int \pi(\theta_2|\theta_1,y)\pi(\theta_1|y)d\theta_1\,,\]
用Monte Carlo的方法,我们可以用如下形式获取
\[\hat{\pi}(\theta_2|y)\approx\frac{1}{S}\sum_{s=1}^S\pi(\theta_2|\theta_1^s,y)\,,\]
目前需要解决是如何理解 reduced run about $\pi(\theta_1|y)$
|