两种办法:1.用加权最小二乘法估计参数;2.模型的自变量中除了ar和ma项以外,还有重要的但没被提炼出来的解释变量
-- FYI
假设线性回归模型
中,扰动项 ε 的分量
是均值为零,彼此独立的,但
不全相等,在这种情况下。OLS 估计虽然具有无偏性和一致性,却不是最优线性无偏估计。因此在预测时
波动较大。为此,在应用 OLS 方法之前要对模型的异方差性进行检验,并设法消除异方差性。 [1]
若线性回归模型存在异方差性,则用传统的最小二乘法估计模型,得到的参数估计量不是有效估计量,甚至也不是渐近有效的估计量;此时也无法对模型参数进行有关显著性检验。
对存在异方差性的模型可以采用加权最小二乘法进行估计。
异方差性的检测——White test
在此检测中,原假设为:回归方程的随机误差满足同方差性。对立假设为:回归方程的随机误差满足异方差性。判断原则为:如果nR2>chi2 (k),则原假设就要被否定,即回归方程满足异方差性。
在以上的判断式中,n代表样本数量,自由度为k(解释变量的个数)。chi2(卡方统计)值可查表所得。