楼主: 7112_1566899082
349 0

[学习笔记] 【学习笔记】创建Pair RDD的方式有多种。 # 第一种创建方式:从文件中加载,然 ... [推广有奖]

  • 0关注
  • 0粉丝

高中生

37%

还不是VIP/贵宾

-

威望
0
论坛币
0 个
通用积分
9.3699
学术水平
0 点
热心指数
0 点
信用等级
0 点
经验
253 点
帖子
21
精华
0
在线时间
10 小时
注册时间
2019-8-27
最后登录
2025-3-6

楼主
7112_1566899082 发表于 2019-11-16 18:39:36 来自手机 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
创建Pair RDD的方式有多种。
# 第一种创建方式:从文件中加载,然后转换为Pair RDD。
file = \"/spark_demo/wordcount/input/study.txt\"
lines = spark.sparkContext.textFile(file)
pairRDD = lines.flatMap(lambda line: line.split(\" \")).map(lambda word: (word,1))
pairRDD.collect()
# 第二种方式:通过并行集合创建Pair RDD
rdd = spark.sparkContext.parallelize([\"Hadoop\",\"Spark\",\"Hive\",\"Spark\"])
pairRDD = rdd.map(lambda word: (word,1))
pairRDD.collect()
# keyBy():自定义key的分组规则
a = spark.sparkContext.parallelize([\"black\", \"blue\", \"white\", \"green\", \"grey\"])
# 通过应用指定的函数来创建该RDD中元素的元组(参数函数生成对应的key),返回一个pair RDD
b = a.keyBy(lambda x:len(x))  
b.collect()
# 或者,通过元组列表创建 pair rdd
pets = spark.sparkContext.parallelize([(\"cat\",1),(\"dog\",1),(\"cat\",2)])
pets.collect()
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:学习笔记 习笔记 Air Parallel Context

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-1 00:33