超过1G的数据就传不进去是吗?
大家看看这个矩阵是16000*10的小矩阵
很快就显示Successfully loaded
昨天我传的一个16000000*10的大矩阵传了很久 最后显示killed
退出了rhadoop
而且16000000*10的大矩阵其实也就不到1.2G 也不能算很大吧
请各位大神帮忙看看啊
为啥对于三个节点的hadoop集群来说
1.2G的大矩阵都传不上去呢??
我的每个节点都有4G内存的


|
楼主: issac.you
|
1264
0
[数据挖掘工具] rhadoop数据上传的问题 |
加好友,备注cda京ICP备16021002号-2 京B2-20170662号
京公网安备 11010802022788号
论坛法律顾问:王进律师
知识产权保护声明
免责及隐私声明


