楼主: guo.bailing
3467 5

求助:sparkR读取csv文件 [推广有奖]

区版主

大师

29%

还不是VIP/贵宾

-

TA的文库  其他...

文库1

文库2

文库3

威望
6
论坛币
1336375 个
通用积分
20283.0375
学术水平
558 点
热心指数
776 点
信用等级
515 点
经验
147046 点
帖子
4116
精华
24
在线时间
10749 小时
注册时间
2009-7-9
最后登录
2024-4-26

初级热心勋章 中级热心勋章 初级信用勋章 初级学术勋章

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
求教,sparkR如何读取csv文件?

我尝试时一直报这个错误:
Error: 不是所有的returnStatus == 0都是TRUE
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:Spark SPAR Park SPA Returns Error 如何

自助者,天助之!
官网木有?

使用道具

sc <- sparkR.init(sparkPackages="com.databricks:spark-csv_2.11:1.0.3")
sqlContext <- sparkRSQL.init(sc)

people <- read.df(sqlContext, "./examples/people.csv", "csv")
head(people)

使用道具

板凳
guo.bailing 发表于 2016-3-21 22:06:03 |只看作者 |坛友微信交流群
无量天尊Spark 发表于 2016-3-20 22:19
sc
> sc <- sparkR.init(sparkPackages="com.databricks:spark-csv_2.11:1.0.3")
Launching java with spark-submit command e:\spark-1.4.1-bin-hadoop2.6\spark-1.4.1-bin-hadoop2.6/bin/spark-submit.cmd  --packages com.databricks:spark-csv_2.11:1.0.3 sparkr-shell C:\Users\ADMINI~1\AppData\Local\Temp\RtmpkjBC4I\backend_port14c4b1617cb
> sqlContext <- sparkRSQL.init(sc)
> people <- read.df(sqlContext, "e:/sample_submission.csv", "csv")
Error: 不是所有的returnStatus == 0都是TRUE
> people <- read.df(sqlContext, "e:/test.csv", "csv")
Error: 不是所有的returnStatus == 0都是TRUE

使用道具

竟然用Windows,并且报的错还是中文,
能换成Linux和英文吗?

使用道具

地板
guo.bailing 发表于 2016-3-22 12:32:05 |只看作者 |坛友微信交流群
无量天尊Spark 发表于 2016-3-21 22:14
竟然用Windows,并且报的错还是中文,
能换成Linux和英文吗?
嗯,改天我换个系统试试看

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-4-28 17:12