楼主: guo.bailing
3779 5

求助:sparkR读取csv文件 [推广有奖]

区版主

已卖:275份资源

大师

30%

还不是VIP/贵宾

-

TA的文库  其他...

文库1

文库2

文库3

威望
6
论坛币
1336379 个
通用积分
20289.1888
学术水平
558 点
热心指数
776 点
信用等级
515 点
经验
147031 点
帖子
4111
精华
24
在线时间
10956 小时
注册时间
2009-7-9
最后登录
2025-11-21

初级热心勋章 中级热心勋章 初级信用勋章 初级学术勋章

楼主
guo.bailing 发表于 2016-3-20 10:29:28 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
求教,sparkR如何读取csv文件?

我尝试时一直报这个错误:
Error: 不是所有的returnStatus == 0都是TRUE
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:Spark SPAR Park SPA Returns Error 如何

自助者,天助之!

沙发
无量天尊Spark 发表于 2016-3-20 22:15:45
官网木有?

藤椅
无量天尊Spark 发表于 2016-3-20 22:19:48
sc <- sparkR.init(sparkPackages="com.databricks:spark-csv_2.11:1.0.3")
sqlContext <- sparkRSQL.init(sc)

people <- read.df(sqlContext, "./examples/people.csv", "csv")
head(people)

板凳
guo.bailing 发表于 2016-3-21 22:06:03
无量天尊Spark 发表于 2016-3-20 22:19
sc
> sc <- sparkR.init(sparkPackages="com.databricks:spark-csv_2.11:1.0.3")
Launching java with spark-submit command e:\spark-1.4.1-bin-hadoop2.6\spark-1.4.1-bin-hadoop2.6/bin/spark-submit.cmd  --packages com.databricks:spark-csv_2.11:1.0.3 sparkr-shell C:\Users\ADMINI~1\AppData\Local\Temp\RtmpkjBC4I\backend_port14c4b1617cb
> sqlContext <- sparkRSQL.init(sc)
> people <- read.df(sqlContext, "e:/sample_submission.csv", "csv")
Error: 不是所有的returnStatus == 0都是TRUE
> people <- read.df(sqlContext, "e:/test.csv", "csv")
Error: 不是所有的returnStatus == 0都是TRUE

报纸
无量天尊Spark 发表于 2016-3-21 22:14:37
竟然用Windows,并且报的错还是中文,
能换成Linux和英文吗?

地板
guo.bailing 发表于 2016-3-22 12:32:05
无量天尊Spark 发表于 2016-3-21 22:14
竟然用Windows,并且报的错还是中文,
能换成Linux和英文吗?
嗯,改天我换个系统试试看

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群
GMT+8, 2025-12-30 10:39