|
岭回归就是一种专门用于共线性数据分析的有偏估计回归方法,它实际上是一种改良的最小二乘法,通过放弃最小二乘法的无偏性,以损失部分信息、降低精度为代价来寻求效果稍差但回归系数更符合实际的回归方程。故岭回归所得剩余标准差比最小二乘回归者要大。但这样一来,它对病态数据的耐受性就远远强于最小二乘法。
岭回归的原理较为复杂,这里不得不引入一些数理统计公式:当自变量问存在共线性时,自变量的相关矩阵之行列式就近似为 0 ,或称奇异的 CSi吨ular) 。此时, X'X 也是奇异的。但如果将 X'X 加上正常数矩阵 kJ, 则 X'X + kJ 的奇异性就会比 X'X 有所改善。因而,可望用 ÎJ Ck) = CX'X + kJ) -lX'Y 作为回归系数的估计值,此值比最小二乘估计稳定。称企 Ck) 为回归系数的岭估计。显然,当 k =0 时,企 Ck) 就退化为最小二乘估计;而当 k→∞时,企 Ck) 就趋于 0 。因此, k 不宜太大。但是,由于 k 的选择是任意的,岭回归分析时一个重要的问题就是 k 取多少合适。由于岭回归是有偏估计, k 值不宜太大;而且一般来说我们希望能尽量保留信息,即尽量能让 k 小些。因此可以观察在不同 k 的取值时方程的变动情况,然后取使得方程基本稳定的最小 k 值。
ridgereg enter =自变量列表
/dep =因变量名
/start = K 值起始值,默认为 O
/stop = K {直终止值,默认为 1
/inc = K 值搜索步长,默认为 0.05
/k =允许搜索的 K 值个数,默认为 999.
这个是张文彤书上复制下来的,希望能帮助你理解这个参数的设置以及意义
按照一般来说 就按照默认值就可以
|