弱弱问一下,做回归分析之前,为什么要做一些自变量的正态分布,还有它们之间的相关分析呢?另外还要做出它们的均值,中位数,偏锋和峰度呢?
如果这些自变量不是正态分布,那么怎么办呢?
如果这些自变量之间高度相关,是不是就必须舍弃了呢?
我知道问题很菜,表拍偶,谢谢啦!!
|
楼主: 唐伯小猫
|
22590
11
[学科前沿] 弱弱问一下,做回归分析之前,为什么要做一些变量的正态分布 |
|
学科带头人 12%
-
|
回帖推荐aiqing19861986 发表于2楼 查看完整内容 1、线形回归的基本假设之一就是随机项服从正态分布,进行正态性检验就是看看数据适合不适合做回归。
2、假如不服从正态分布,你就得考虑用非线性模型,例如曲线模型。
3、自变量之间高度相关说明存在严重的共线性,这也是违背线性回归的基本假设,你得消除共线性,一般有几种方法:剔除一些不重要的自变量、增大样本容量、还可以对回归系数进行有偏估计等。
建议你去借一本应用统计学的书看一下,收获会很大的。
本帖被以下文库推荐
| ||
|
|
| ||
| ||
加好友,备注jltj京ICP备16021002号-2 京B2-20170662号
京公网安备 11010802022788号
论坛法律顾问:王进律师
知识产权保护声明
免责及隐私声明


