用R做大量数据的回归分析的时候才发现的问题。
例如,随机生成了1000000个自变量x和因变量y进行逻辑回归,result<-glm(y~x,family=binomial),为什么得到的result变量竟然有400多m!难道其中是包含了每一步中间过程迭代的结果吗?如果是的话,要怎么只得到想要的部分(系数和P值)呢?
PS,因为电脑的内存有限,在做这样的百万级别的数据分析时发现内存不足了,不是用summary,而是直接跳过得到辣么大的拟合结果那步,希望能得到解决的方法 。
|
楼主: philomochi
|
3728
7
[问答] 用海量数据做R语言回归,拟合的结果数据量庞大的问题 |
|
小学生 85%
-
|
| ||
|
|
| ||
| ||
| ||
加好友,备注cda京ICP备16021002号-2 京B2-20170662号
京公网安备 11010802022788号
论坛法律顾问:王进律师
知识产权保护声明
免责及隐私声明


