往Hadoop里面添加数据是不是有大小限制呢?
超过1G的数据就传不进去是吗?
大家看看这个矩阵是16000*10的小矩阵
很快就显示Successfully loaded
昨天我传的一个16000000*10的大矩阵传了很久 最后显示killed
退出了rhadoop
而且16000000*10的大矩阵其实也就不到1.2G 也不能算很大吧
请各位大神帮忙看看啊
为啥对于三个节点的hadoop集群来说
1.2G的大矩阵都传不上去呢??
我的每个节点都有4G内存的