请问:我有一个12G的大数据,想按照id(从1 to 206)分成206个小文件,用循环可以做到。但是发现每次都要把这个大文件全部先读入,再根据where语句筛选出想要的id的观测值,很耗时间。各位,有更快些的方法吗?
楼主: jianke22
|
4610
10
SAS分割超大数据集 |
学科带头人 61%
-
|
| ||
车千乘,载燕南赵北,剑客奇才
|
|||
车千乘,载燕南赵北,剑客奇才
|
|
车千乘,载燕南赵北,剑客奇才
|
|
| ||
playmore邀请您访问ChinaTeX论坛!!!进入ChinaTeX论坛
|
|
playmore邀请您访问ChinaTeX论坛!!!进入ChinaTeX论坛
|
|
京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明 免责及隐私声明