1322 0

第13课:Spark 内核构架解密 [推广有奖]

  • 1关注
  • 8粉丝

硕士生

34%

还不是VIP/贵宾

-

威望
0
论坛币
305 个
通用积分
0
学术水平
5 点
热心指数
14 点
信用等级
2 点
经验
23002 点
帖子
73
精华
0
在线时间
135 小时
注册时间
2016-2-27
最后登录
2016-9-11

相似文件 换一批

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币

前言:

我们为什么要这样写程序?为何要这样运行程序?以及程序运行背后发生了什么?



关于Spark Runtimre

T}8[@TXUWIV1IX46%}}7%DX.png


Driver:

       运行程序时候,具有Main方法,并且创建了SparkContext的一个对象,他是程序运行调度的调度器,在程序运行中,Driver端的主要代码为SparkConf 和SparkContext两部分如下图所示:

JE{WHTTE5B3GMKQBCR[P(R6.png

Worker


       运行程序时候,Worker端是集群中具体运行操作代码的节点,他不运行程序的代码,管理当前节点内存CPU等计算资源的使用状况并接收master指令来分配具体资源Executor(在新的进程中分配),程序计算运行在Executor中。

0JI9UXK1P89VRKB)2E(8S@7.png

Executor:


       Executor是运行在worker节点上一个进程里面的对当前应用程序处理所开启的一个对象,这个对象负责了task的执行,计算通过线程池内线程并发执行和复用的方式。

91G{SW}LVW8)UQYSXV9IVFU.png



注:本学习笔记来自DT大数据梦工厂


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:Spark SPAR Park SPA Context Spark scala DT_Spark 大数据

已有 1 人评分论坛币 收起 理由
daazx + 5 精彩帖子

总评分: 论坛币 + 5   查看全部评分

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-4-28 17:23