楼主: 小乖乖女
12272 24

[其它] 多重共线性必消除吗 [推广有奖]

11
wobushita 发表于 2011-12-8 20:47:02
个人觉得应该是要消除的,而且要说明理由!
可爱可爱就是可爱啦~~~~

12
hbhjhf 在职认证  发表于 2011-12-9 21:33:23
不严重的话,可以不管。严重了,就要想想办法。

13
hbhjhf 在职认证  发表于 2011-12-9 21:33:33
不严重的话,可以不管。严重了,就要想想办法。

14
jinyizhe282 发表于 2011-12-9 21:36:27
取决你 对模型 的解释能力!~如果 模型的结果能够说明你得特定预期 当然可以无所谓!~
交流!~

15
allck1989 发表于 2011-12-10 10:55:42
如果回归分析的唯一目的是预测或者预报的话,那么多重共线性不是一个严重的问题,因为它的R
方越高的话,预测就越准。如果一定要消除的话可以用横截面与时间序列数据并用,或者变量代换的方法都可以。

16
malonechan 发表于 2011-12-10 16:17:54
multi collinearity 的后果是 std error很大 然后两个variable你不知道相信哪个  或者都不相信   另 我不认为prediction会很好  在in sample 结果是一样的  但是在out sample  casual effect就完全分不清了 造成prediction可能很差 (如果在out sample 两个variable 并不十分相似)    还有r squared 高 可能是overfitting        再有 regression 并没有假设 x1 和 x2 需要independent     问题在于 matrix 能不能 take inverse 或者准不准确

17
malonechan 发表于 2011-12-10 16:25:44
简单的检测方法 在stata中 是vif      或者ucla 的collin

18
fishing_boy 在职认证  发表于 2011-12-10 16:39:34
回归求解时,各自变量相关均要同时计算,若自变量高度相关时,其参数会出现不合理的现象,例如一正一负,违反原假设,故有多重共线性时,应消除有疑问的自变量,才能得到合宜估计。

19
小乖乖女 发表于 2011-12-13 13:07:02
wobushita 发表于 2011-12-8 20:47
个人觉得应该是要消除的,而且要说明理由!
谢谢

20
小乖乖女 发表于 2011-12-13 13:07:42
fishing_boy 发表于 2011-12-10 16:39
回归求解时,各自变量相关均要同时计算,若自变量高度相关时,其参数会出现不合理的现象,例如一正一负,违 ...
谢谢

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2025-12-31 13:43