楼主: hubifeng?
9981 30

[学习分享] 如何处理大型数据集? [推广有奖]

21
soccy 发表于 2014-12-1 02:14:56
data.table不能处理超出内存的数据。

22
neversarah 发表于 2014-12-1 09:39:25
我用data.table 读  5.259G数据  用了3‘17

23
Nicolle 学生认证  发表于 2014-12-1 10:05:19
提示: 作者被禁止或删除 内容自动屏蔽

24
曲散人终 发表于 2014-12-1 12:50:03
换Linux下的R不知道可不可以加快?

25
萧彩宁 发表于 2015-4-17 21:51:28
用read.csv.ffdf()读完数据后,存储后下次怎样不用再读就可以用了啊?

26
soccy 发表于 2015-4-17 22:55:28
SAS和ff处理大型数据的思路是一样的,都是在硬盘上创建高效率二进制文件,只在需要的时候将部分数据如入内从中。

27
soccy 发表于 2015-4-17 22:56:49
jiangbeilu 发表于 2014-11-30 22:35
读比较大的数据,可以试一下data.table包中的fread函数,上次我用这个来读2个G的数据,速度还是挺快的。
data.table无法处理尺寸超出内存的数据。

28
zhgzhckc 发表于 2015-4-17 23:42:36
以前在R里读过一个4百多万的数据,3G内存的电脑直接报错。后来换成了8G内存的,不再报错了。

29
smile108 发表于 2015-8-27 22:48:12
请问楼主,这个Kaggle上已经完成的项目,他们的代码结果会公布吗

30
420948492 发表于 2015-9-8 09:45:44
{:3_42:}

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群
GMT+8, 2026-1-20 16:25