楼主: 花、椒
6462 4

[回归分析求助] logit模型出错 [推广有奖]

  • 0关注
  • 0粉丝

高中生

67%

还不是VIP/贵宾

-

威望
0
论坛币
0 个
通用积分
0
学术水平
0 点
热心指数
0 点
信用等级
0 点
经验
349 点
帖子
23
精华
0
在线时间
19 小时
注册时间
2014-4-22
最后登录
2016-3-2

楼主
花、椒 发表于 2015-10-15 20:55:14 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
被解释变量二值
用logit模型回归,Iteration 0:   log likelihood =  -9.667766  
Iteration 1:   log likelihood = -9.0704415  
Iteration 2:   log likelihood = -7.7032835  
Iteration 3:   log likelihood = -7.3805801  
Iteration 4:   log likelihood = -6.9349477  
Iteration 5:   log likelihood = -6.5999437  
Iteration 6:   log likelihood = -6.1167926  
Iteration 7:   log likelihood = -5.7196697  
Iteration 8:   log likelihood =  -5.204502  
Iteration 9:   log likelihood = -4.9805788  
Iteration 10:  log likelihood = -4.9329421  (not concave)
Iteration 11:  log likelihood = -4.9319949  (not concave)
Iteration 12:  log likelihood = -4.9316364  (not concave)
Iteration 13:  log likelihood = -4.9315606  (not concave)
Iteration 14:  log likelihood = -4.9315392  (not concave)这种错误原因是什么?
probit 模型也是一样,求大神给指点

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:logit模型 logit Log Likelihood iteration 模型

沙发
xddlovejiao1314 学生认证  发表于 2015-10-15 21:30:38
这个结果表明模型不收敛。可考虑删除一些可疑变量后再构建模型,看是否收敛。同时,在构建模型前数据是否进行了预处理,如极端异常值是否得到了处理。此外,可用子样本建模试试看能否收敛。祝好运~
已有 1 人评分经验 热心指数 收起 理由
夏目贵志 + 5 + 1 热心帮助其他会员

总评分: 经验 + 5  热心指数 + 1   查看全部评分

藤椅
506232839 发表于 2015-10-15 23:27:45 来自手机
花、椒 发表于 2015-10-15 20:55
被解释变量二值
用logit模型回归,Iteration 0:   log likelihood =  -9.667766  
Iteration 1:   log li ...
因为logit使用的极大似然估计,你这种有可能模型设定错误,多重共线问题所致。

板凳
小阿仔 发表于 2023-9-23 16:40:30
我实在一位其他论坛博主那里看到的,模型不收敛,可以尝试以下解决方法:使用gradient 或者difficult 的option;或者我觉得也可以更换technique的option,就是更换做迭代iteration的方法,常用的有nr,bhhh,dfp,bfgs,其中nr是默认选项。【technique(algorithm spec)】 specifies how the likelihood function is to be maximized. The following algorithms are allowed. For details, see Gould, Pitblado, and Poi (2010). technique(nr) specifies Stata’s modified Newton–Raphson (NR) algorithm. technique(bhhh) specifies the Berndt–Hall–Hall–Hausman (BHHH) algorithm. technique(dfp) specifies the Davidon–Fletcher–Powell (DFP) algorithm. technique(bfgs) specifies the Broyden–Fletcher–Goldfarb–Shanno (BFGS) algorithm.
我最后是用technique(bfgs)的option解决的

报纸
oliyiyi 发表于 2023-9-24 08:12:42
数据问题:数据存在过度分离(complete separation)或临界分离(quasi complete separation),使得似然函数不是凸的。这种情况下,存在某些自变量组合可以完全或近乎完全预测响应变量。
模型过于复杂:自变量项太多,尤其是高次项或者交互项,使得似然函数曲面过于复杂,出现多峰态。
算法问题:使用的迭代优化算法(比如Newton法)本身就容易 stack 在局部最优解。
初始值问题:迭代优化初始值选择不当,导致无法收敛到全局最优。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注jltj
拉您入交流群
GMT+8, 2025-12-9 10:25