|
可以说,在这种理想化的情况下,一种好的估计方法将能够在一定程度上恢复这些真值,而产生更接近θ真值的估计值的方法将被认为是优越的。这导致我们定义了以下损失函数(θ真,θ)=θ真-^θ| |,(10),其中^θ是给定贝叶斯估计方法产生的参数估计(后验平均值)。在实践中,重要的是,在计算损失函数值之前,对^θ和θtrues进行归一化,以取区间[0,1]中的值。这是因为,即使与通常采用较大值的参数相关的相对较小的估计误差,也会大大增加损失函数值,而不是与通常采用较小值的参数相关的相对较大的估计误差(如果不进行归一化)。因此,对于每个自由参数,θj∈ [a,b],我们设置^θ[0,1]j=^θj- ab公司- a、 (11)将类似变换应用于θtruej。上述内容使我们能够开发一系列基准测试练习,其中我们比较了与我们提出的方法相关的损失函数值和Grazzini et al.(2017)针对许多不同模型、自由参数集和θTrueValue的损失函数值。在所有这些比较练习中,我们的目标是确保实验的总体条件始终一致,而不管使用何种方法来近似可能性。因此,在所有情况下,我们将真实数据的Proxy长度设置为Temp=1000,将模拟集合中的蒙特卡罗复制次数设置为R=100,将模拟组件中每个系列的长度设置为Tsim=1000,并将所有自由参数的先验值设置为在探索的参数范围内统一。此外,我们还将samelag长度L=3用于所有涉及基于神经网络方法的估计尝试。
|