楼主: changjiang11
1677 2

spark代码问题 [推广有奖]

  • 0关注
  • 0粉丝

大专生

18%

还不是VIP/贵宾

-

威望
0
论坛币
10 个
通用积分
0
学术水平
0 点
热心指数
0 点
信用等级
0 点
经验
451 点
帖子
30
精华
0
在线时间
57 小时
注册时间
2012-1-2
最后登录
2022-8-13

楼主
changjiang11 发表于 2016-8-5 21:31:18 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
今日测试一段代码如下:

val data = rawData.map { line =>

     |       val values = line.split(',').map(_.toDouble)

     |       val featureVector = Vectors.dense(values.init)

     |       val label = values.last - 1

     |       LabeledPoint(label, featureVector)

     |     }

整体运行没有错误,当然前提是import了相应的包,但是本人算是折腾帝,尝试着将代码分开写,分开运行,在建立稠密向量时,报错,显示如下:

val n2=Vectors.dense(n1.init)

<console>:34: error: value init is not a member of org.apache.spark.rdd.RDD[Array[Double]]

       val n2=Vectors.dense(n1.init)

提示没有init操作,因为是小白,所以百思不得其解这个问题,还望坛子里的高手能够解答一二,不胜感激!


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:Spark Park SPAR SPA vectors

沙发
changjiang11 发表于 2016-8-5 21:32:16
还望高手赐教,小白实在没搞懂为啥不能分开写这段代码!

藤椅
changjiang11 发表于 2016-9-15 15:59:21
没有搞Scala的么!

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群
GMT+8, 2025-12-30 06:41