我有3000个data.frame存在sqlite多个库的3000张表中,需要循环取出每张表,经过适量预处理后形成data.frame,将所有data.frame合并为一个大的data.frame。
简单实现就是for(i in 1:3000){...}
循环中读表,处理,再df=rbind(df, newdf)。
问题来了,期初,df较小,rbind操作还很快,到后来,df越来越大,rbind操作越来越耗时。
|
楼主: lqb1987
|
7760
16
[问答] 如何高效合并大量的data.frame |
|
已卖:6份资源 讲师 1%
-
|
本帖被以下文库推荐
| ||
|
|
| ||
| ||
| ||
加好友,备注cda京ICP备16021002号-2 京B2-20170662号
京公网安备 11010802022788号
论坛法律顾问:王进律师
知识产权保护声明
免责及隐私声明


