楼主: huyanglin
33501 12

关于逐步回归法 [推广有奖]

  • 5关注
  • 3粉丝

已卖:1120份资源

博士生

28%

还不是VIP/贵宾

-

TA的文库  其他...

夏泽统计数据

威望
0
论坛币
13939 个
通用积分
105.4796
学术水平
4 点
热心指数
4 点
信用等级
4 点
经验
138 点
帖子
138
精华
0
在线时间
342 小时
注册时间
2008-7-17
最后登录
2024-3-19

楼主
huyanglin 学生认证  发表于 2011-12-25 19:20:39 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
那位大虾知道在用逐步回归法时,正向纳入和反向淘汰哪一个更准确
在用STATA时,为什么命令sw reg y x1 x2 x3 x4 x5 x6 x7,pr(.10)和sw reg y x1 x2 x3 x4 x5 x6 x7,pe(.10)的回归结果不一样~哪个更可信呢?

sw ologit y x1 x2 x3 x4 x5 x6 x7 x8 x9 x10 x11 x12 x13,pe(.10)
begin with empty model
p = 0.0159 <  0.1000  adding   x6
p = 0.0609 <  0.1000  adding   x5
p = 0.0971 <  0.1000  adding   x2

Ordered logistic regression                       Number of obs   = 35
LR chi2(3)      = 17.25
Prob > chi2     = 0.0006
Log likelihood = -33.384154                       Pseudo R2       = 0.2053


y       Coef.   Std. Err.      z    P>z     [95% Conf. Interval]

x6    .0438938   .0266138     1.65   0.099    -.0082682 .0960558
x5    2.845029   1.365265     2.08   0.037     .1691582 5.520901
x2     .750995   .4526318     1.66   0.097     -.136147 1.638137

/cut1   -2.400478   .7695964                      -3.90886 -.8920972
/cut2    .8391373   .4776718                     -.0970822 1.775357
/cut3     3.38809   .8004838                       1.81917 4.957009

. sw ologit y x1 x2 x3 x4 x5 x6 x7 x8 x9 x10 x11 x12 x13,pr(.10)
begin with full model
p = 0.9849 >= 0.1000  removing x3
p = 0.9684 >= 0.1000  removing x10
p = 0.7306 >= 0.1000  removing x13
p = 0.6850 >= 0.1000  removing x8
p = 0.5804 >= 0.1000  removing x5
p = 0.3484 >= 0.1000  removing x1
p = 0.2298 >= 0.1000  removing x12
p = 0.2814 >= 0.1000  removing x4
p = 0.2231 >= 0.1000  removing x9
p = 0.1129 >= 0.1000  removing x11

Ordered logistic regression                       Number of obs   = 35
LR chi2(3)      = 16.80
Prob > chi2     = 0.0008
Log likelihood = -33.611169                       Pseudo R2       = 0.1999


y       Coef.   Std. Err.      z    P>z     [95% Conf. Interval]

x7    .1793151   .0904187     1.98   0.047     .0020977 .3565325
x2    .8587624   .4371713     1.96   0.049     .0019224 1.715602
x6    .0735324   .0290028     2.54   0.011      .016688 .1303769

/cut1   -2.047015   .7583459                     -3.533345 -.5606842
/cut2    1.126754   .5373524                      .0735629 2.179946
/cut3    3.697584   .8773536                      1.978003 5.417165


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:逐步回归 regression Likelihood regressio Removing 大虾

已有 1 人评分学术水平 热心指数 信用等级 收起 理由
李念卿7 + 1 + 1 + 1 精彩帖子

总评分: 学术水平 + 1  热心指数 + 1  信用等级 + 1   查看全部评分

沙发
huyanglin 学生认证  发表于 2011-12-25 19:28:20
请大侠们不吝赐教~自己先顶一个~

藤椅
xjg1983 发表于 2011-12-25 19:50:15
这个没遇到过,不过应该在两个模型之间再检验下看看吧!

板凳
huyanglin 学生认证  发表于 2011-12-25 20:22:35
xjg1983 发表于 2011-12-25 19:50
这个没遇到过,不过应该在两个模型之间再检验下看看吧!
两个模型之间是什么意思啊?

报纸
wlou64 发表于 2011-12-25 21:09:33
应该是从少到多的更合理,因为模型是越紧凑越好,当然,由于数据太少,结果可能不一样,但只要数据足够多,结果应该是一样的

地板
huyanglin 学生认证  发表于 2011-12-25 21:37:19
wlou64 发表于 2011-12-25 21:09
应该是从少到多的更合理,因为模型是越紧凑越好,当然,由于数据太少,结果可能不一样,但只要数据足够多,结 ...
噢,原来是这样。估计是由于数据太少了。谢谢!!!

7
Lennydongsun 学生认证  发表于 2015-9-15 16:12:10
学习了。

8
希汐 发表于 2016-4-24 15:10:30
这两个做法不一样,最后结果应该一样的吧

9
huyanglin 学生认证  发表于 2016-5-31 16:24:41
希汐 发表于 2016-4-24 15:10
这两个做法不一样,最后结果应该一样的吧
明显不一样啊。

10
hello0204 发表于 2018-5-15 08:33:26
huyanglin 发表于 2011-12-25 19:28
请大侠们不吝赐教~自己先顶一个~
请问楼主在哪里知道的逐步回归这个stata命令呢?方便的话能告诉我嘛?每个版本stata的逐步回归命令不一样吗?

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注jltj
拉您入交流群
GMT+8, 2025-12-20 10:01