楼主: fletcherrr
894 4

[面板数据求助] 关于xtmlogit运行过慢的问题 [推广有奖]

  • 0关注
  • 1粉丝

硕士生

8%

还不是VIP/贵宾

-

威望
0
论坛币
48 个
通用积分
0.1538
学术水平
0 点
热心指数
0 点
信用等级
0 点
经验
445 点
帖子
32
精华
0
在线时间
199 小时
注册时间
2020-2-23
最后登录
2025-8-18

楼主
fletcherrr 发表于 2023-10-20 19:08:33 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
如题所示,我在使用xtmlogit时遇到了问题。我的stata版本是17.0 SE, 结局变量是有10个不同值的无序多分类变量,控制变量有19个,observation有38w。在使用xtmlogit时,我的页面停留在了“Fitting comparison model ...”和“Refining starting values:”。经查阅,我发现或许可以通过“startvalues()”选项来解决这一问题,但我不知道如何设定这一值。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:mlogit logit Log observation Comparison

沙发
fletcherrr 发表于 2023-10-20 19:13:46

input float(mlogit_death_reason        pm255y_10)        int        age        byte        gender_cv        float        years_education        byte        married_inpu        float        home_disposable_assets_10000        byte        vigorous_sports
0 2.5298166 62 2 17 1         0        99
2 2.5298166 57 2 11 6         0        99
0 2.3443332 -9 2 11 6         0        99
0 2.5298166 68 1  5 6         0        99
0 2.5298166 70 2 14 1         0        99
0 2.5298166 60 1 12 1         0        99
0 2.3415167 63 1 12 1 1.6686262        4
0 2.5298166 70 2  8 6         0        99
0    2.3648 73 2  8 6         0        2
0 2.5298166 56 1 11 1         0        99
0 2.3558667 59 1 11 1 .28380996        2
0 2.5298166 70 2  8 1         0        99
0    2.3648 73 2  8 1  .5112997        3
0 2.5298166 70 2 12 1         0        99
0 2.3475666 73 2 12 6   .347164        4
0 2.5298166 70 1 12 3         0        99
3 2.3475666 73 1 12 1 2.1645837        4
0 2.5298166 73 1  7 6         0        99
0 2.5298166 68 2 12 1         0        99
0 2.5298166 60 1 11 1         0        99
0 2.5298166 74 1 15 1         0        99
0    2.3648 77 1 14 1 2.0963287        2
0 2.5298166 76 2  7 6         0        99
0    2.3648 79 2  4 6  .5112997        4
0 2.5298166 87 1 12 6         0        99
3 2.5298166 72 1  9 1         0        99
0 2.3558667 -9 1  9 1         0        99
0 2.5298166 71 2 12 6         0        99
0 2.3558667 74 2 12 6 .25564986        4
0 2.5298166 67 2 12 1         0        99
0 2.3475666 70 2 12 1 2.1645837        4
0 2.5298166 52 2 11 1         0        99
0 2.3558667 55 2 14 1 .28380996        3
0 2.5298166 83 2  8 6         0        99
0 2.5298166 67 1  8 6         0        99
0 2.3475666 70 1  8 6  1.481769        4
0 2.5298166 56 2 12 1         0        99
0 2.3415167 59 2 12 1 1.6686262        4
0 2.5298166 67 2 13 6         0        99
0 2.5298166 66 2 18 6         0        99
0 2.3443332 69 2 16 6  2.637821        4
0 2.5298166 70 1 15 1         0        99
0 2.5298166 71 2  7 6         0        99
0 2.3475666 74 2  7 6 .05215257        4
0 2.5298166 59 2 11 1         0        99
0 2.5298166 66 1 15 1         0        99
0 2.3415167 69 1 15 1 1.8080915        2
0 2.5298166 83 2 12 6         0        99
0 2.3475666 86 2 11 6 .25564986        4
0 2.5298166 92 1 18 1         0        99
0 2.5298166 70 2 19 1         0        99
0    2.3648 73 2 14 1 2.0963287        1
3 2.5298166 84 1 10 6         0        99
0    2.3648 -9 1 10 6         0        99
0 2.5298166 69 1 15 1         0        99
0    2.3648 72 1  8 1  .5112997        4
0 2.5298166 51 1 16 1         0        99
0 2.5298166 62 2  8 6         0        99
0 2.3558667 65 2 11 6  .9926399        1
0 2.5298166 55 2 11 1         0        99
0    2.3648 58 2 11 1  .7925146        2
0 2.5298166 49 2 17 1         0        99
1 2.5298166 65 2 12 6         0        99
0 2.3415167 -9 2 12 6         0        99
0 2.5298166 79 2  1 6         0        99
0 2.3558667 82 2  4 6  .2397183        3
0 2.5298166 70 1 12 1         0        99
1 2.5298166 90 2  4 6         0        99
0 2.3558667 -9 2  4 6         0        99
0 2.5298166 84 2 16 1         0        99
3 2.5298166 87 2  9 6         0        99
0 2.3558667 -9 2  9 6         0        99
0 2.5298166 56 2 15 3         0        99
0 2.5298166 65 2 15 1         0        99
0 2.3443332 68 2 15 1 1.8080915        4
3 2.5298166 85 2  3 6         0        99
0 2.3558667 -9 2  3 6         0        99
3 2.5298166 75 1  8 6         0        99
0 2.3475666 -9 1  8 6         0        99
0 2.5298166 81 1  7 6         0        99
0 2.3558667 84 1  7 6  .7158196        4
6 2.5298166 67 1  8 1         0        99
0 2.3475666 -9 1  8 1         0        99
0 2.5239666 77 2 12 6         0        99
0 2.3475666 80 2 11 6  1.738419        4
0 2.5239666 59 2 11 1         0        99
0 2.5239666 61 2  8 1         0        99
0 2.5239666 70 2 17 1         0        99
0 2.5239666 77 1 12 1         0        99
0    2.3648 80 1 15 1  3.834748        1
0 2.5239666 60 2 14 1         0        99
0 2.3443332 63 2 12 1  5.112997        1
0 2.5239666 64 2  8 1         0        99
0 2.3475666 67 2  8 1  1.533899        2
0 2.5239666 68 2  8 6         0        99
0 2.3443332 71 2  8 6  1.282252        3
0 2.5239666 59 1 12 1         0        99
0 2.3443332 62 1 11 1  .8789505        4
0 2.5239666 70 1 11 4         0        99
0 2.3558667 73 1 11 4 2.2700875        4

input        byte(heart_attack        hypertension        stroke        COPD        cancer        parkinson        high_cholesterol        diabetes        bmicat        esmoked        mh007_        sphus_inpu)
0 0 0        0 0 0 0 0 2 99 99        2
1 0 0        0 0 0 0 0 2 99 99        4
. . .        . . . . . 2 99 99        4
0 0 0        0 0 0 0 0 2 99 99        2
0 1 0        0 0 0 1 0 3 99 99        3
0 0 0        0 0 0 0 0 3 99 99        5
0 1 0        0 0 0 0 0 3  1  2        4
0 1 0        1 0 0 1 0 3 99 99        5
0 1 0        0 0 0 1 0 3  0  2        3
0 0 0        0 0 0 0 0 4 99 99        1
0 0 0        0 0 0 0 0 3  1  2        3
0 1 1        0 0 0 0 0 4 99 99        3
0 1 0        0 0 0 0 1 2  0  1        4
0 1 0        0 0 0 0 0 4 99 99        2
0 1 0        0 0 0 0 0 1  0  2        3
0 1 0        0 0 0 0 0 3 99 99        2
0 1 0        0 0 0 0 0 1  1  2        4
0 0 0        0 0 0 0 0 2 99 99        3
0 1 0        0 0 0 1 0 3 99 99        4
0 1 0        0 0 0 0 0 4 99 99        3
0 0 1        0 0 0 0 0 4 99 99        3
0 1 1        0 0 0 0 0 4  1  2        3
0 1 0        0 0 0 1 0 1 99 99        5
0 1 0        1 0 0 1 0 1  0  1        4
0 0 0        0 0 0 0 1 4 99 99        3
0 1 0        0 0 0 0 1 2 99 99        5
. . .        . . . . . 2 99 99        5
0 1 0        1 0 0 0 0 3 99 99        3
1 1 1        0 0 0 0 0 3  0  1        5
0 1 0        0 0 0 0 0 3 99 99        4
0 1 1        0 0 0 0 0 2  1  2        4
0 0 0        0 0 0 0 0 3 99 99        1
0 0 0        0 0 0 0 0 2  0  2        2
0 0 0        0 0 0 0 0 3 99 99        4
0 1 1        0 0 0 0 0 2 99 99        5
0 0 1        0 0 0 0 0 2  0  1        5
0 0 0        0 0 0 0 0 3 99 99        1
0 1 0        0 0 0 0 0 4  0  2        4
0 0 0        0 0 0 0 0 3 99 99        2
0 0 0        0 0 0 0 0 2 99 99        1
0 0 0        0 0 0 0 0 4  0  1        3
0 1 0        0 0 0 1 0 3 99 99        2
1 1 0        0 0 0 1 0 3 99 99        3
1 1 0        0 0 0 1 0 1  0  2        2
0 1 0        0 0 0 0 0 2 99 99        2
0 0 0        0 0 0 0 0 4 99 99        3
0 1 0        0 0 0 0 0 3  1  2        3
0 1 0        0 0 0 0 0 3 99 99        3
0 1 0        0 0 0 0 0 3  0  1        3
1 1 0        0 0 0 0 0 3 99 99        3
0 1 0        0 0 0 0 0 3 99 99        3
0 1 0        0 0 0 0 0 4  0  2        3
0 1 0        1 0 0 0 1 2 99 99        4
. . .        . . . . . 2 99 99        4
0 1 0        1 0 0 0 0 3 99 99        5
1 1 0        1 0 0 0 0 2  0  1        5
1 1 0        0 0 0 0 0 3 99 99        4
0 0 0        0 0 0 0 0 2 99 99        2
0 0 0        0 0 0 0 0 3  0  2        1
0 0 0        0 0 0 0 0 2 99 99        4
0 1 0        0 0 0 0 0 2  0  1        3
0 0 0        0 0 0 0 0 2 99 99        2
0 0 0        0 0 0 0 0 2 99 99        1
. . .        . . . . . 2 99 99        1
0 1 1        0 0 0 0 0 1 99 99        4
0 1 1        0 0 0 0 0 1  0  2        4
0 0 0        0 1 0 0 0 2 99 99        5
0 0 0        0 0 0 0 0 2 99 99        4
. . .        . . . . . 2 99 99        4
0 1 0        0 0 0 0 0 2 99 99        3
0 1 0        0 0 0 0 0 1 99 99        5
. . .        . . . . . 1 99 99        5
0 0 0        0 0 0 0 0 2 99 99        2
0 1 0        0 0 0 0 0 3 99 99        3
0 1 0        0 0 0 0 0 4  1  2        3
1 1 0        0 0 0 0 0 3 99 99        5
. . .        . . . . . 3 99 99        5
1 1 0        0 0 0 0 0 2 99 99        3
. . .        . . . . . 2 99 99        3
0 1 0        0 1 0 1 0 3 99 99        5
0 1 0        0 1 0 0 0 3  0  1        3
0 1 0        0 0 0 0 1 4 99 99        3
. . .        . . . . . 3 99 99        3
1 1 0        0 0 0 0 1 2 99 99        3
1 1 0        0 0 0 0 1 1  0  2        2
0 0 0        0 0 0 0 0 4 99 99        2
0 0 0        0 0 0 0 0 4 99 99        2
0 0 0        0 0 0 0 1 3 99 99        3
0 0 0        0 0 0 0 0 3 99 99        2
0 0 0        0 0 0 0 0 3  0  2        3
0 1 0        0 0 0 0 0 3 99 99        4
0 1 0        0 0 0 0 0 3  0  2        3
0 1 0        0 0 0 0 0 4 99 99        2
0 1 0        0 0 0 0 0 4  0  2        3
1 1 0        0 0 0 0 1 3 99 99        3
1 1 0        0 0 0 0 1 1  0  1        5
1 0 0        0 0 0 0 0 3 99 99        3
1 1 0        0 0 0 0 0 1  0  1        5
1 1 0        0 0 0 0 1 3 99 99        3
1 1 0        0 0 0 0 1 1  0  2        2

藤椅
sun_man 在职认证  发表于 2023-10-24 10:56:01
startvalues()选项允许你手动设置模型的起始值。你可以根据你的数据和模型的特点来选择合适的起始值。一种常见的方法是使用其他模型的估计结果作为起始值,或者使用数据中的一些统计量来估计起始值。
以下是一个示例,展示了如何使用startvalues()选项来设置起始值:
xtmlogit outcome_var covariates, startvalues(values)
其中,outcome_var是你的因变量,covariates是你的自变量,values是你设置的起始值。
设置起始值并不能保证模型能够收敛或提高收敛速度,这取决于数据的特点和模型的复杂性。如果问题仍然存在,你可能需要考虑其他调整模型的方法,如增加迭代次数、调整优化算法等。

板凳
fletcherrr 发表于 2023-10-24 23:15:13
sun_man 发表于 2023-10-24 10:56
startvalues()选项允许你手动设置模型的起始值。你可以根据你的数据和模型的特点来选择合适的起始值。一种 ...
谢谢,我试试

报纸
Baidu1123 发表于 2024-9-1 11:14:16
fletcherrr 发表于 2023-10-24 23:15
谢谢,我试试
您好,最终您是咋解决的?遇到了同样的问题,请教一下

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注jltj
拉您入交流群
GMT+8, 2026-1-8 04:28