请选择 进入手机版 | 继续访问电脑版
楼主: 浮世若离丶
17844 132

[行业动态] 大数据分析师为什么需要学习Spark?   [推广有奖]

回帖奖励 9 个论坛币 回复本帖可获得 3 个论坛币奖励! 每人限 1 次
  • 4关注
  • 69粉丝

教授

64%

还不是VIP/贵宾

-

威望
1
论坛币
25044 个
通用积分
98.3144
学术水平
71 点
热心指数
100 点
信用等级
50 点
经验
20419 点
帖子
666
精华
1
在线时间
1301 小时
注册时间
2015-8-6
最后登录
2023-7-5

相似文件 换一批

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
       Spark这套速度极快的内存分析引擎与以往的大数据处理框架相比具有诸多优势,从而能够轻松地为大数据应用企业带来理想的投资回报。Spark项目将一系列创新型思维带入了大数据处理市场,并且表现出极为强劲的发展势头。近年来,CDA大数据团队针对Spark框架开展了广泛深入的研究,并融入到大数据分析师的培训课程中,整个课程体系变得更加完善,我们相信,随着整个团队的不断努力,我们的大数据分析师培训项目将日臻完美。

一、Spark的发展

Spark是伯克利大学2009年开始研发的一个项目,于2010年开源。自从2013年Spark进入Apache的孵化器项目后,发生了翻天覆地的变化。2014年初,Spark成为了Apache排名第三的顶级项目,其发展势头更加迅猛。Spark通常一个多月就会发布一个小版本,两三个月左右会发布一个大版本,目前最新版本为1.5.2。2014年,Hadoop的四大商业机构均宣称全力支持Spark,今后将全面接收基于Spark编写的数据挖掘与分析算法,多家世界顶级的数据企业例如Google,Facebook等现已纷纷转向Spark框架。目前参与贡献的公司也超过50家;代码库也由原来的63000行增加到175000行。

近两年,Spark在中国的发展达到了一个前所未有的状态和高度。其中阿里巴巴的搜索和广告业务,最初使用Mahout和MapReduce来解决复杂的机器学习问题,但是在效率和代码维护方面并不理想,现已转向Spark框架。淘宝技术团队使用Spark实现了多次迭代的机器学习算法和一些高计算复杂度的算法,并将其运用在推荐系统上;同时还利用Spark中的一系列组件解决了基于最大连通图的社区发现、基于三角形计数的关系衡量、基于随机游走的用户属性传播等许多生产问题。此外,腾讯也是最早使用Spark的应用之一,借助Spark快速迭代的优势,腾讯提出了大数据精准推荐,并采用“数据+算法+系统”这套技术方案支持每天上百亿的请求量。

二、Spark四大特性

特性一:快速
相同的实验环境与数据下,在内存中运行相同的程序,Spark比MapReduce快约100倍;在磁盘中运行相同的程序,Spark要MapReduce快约10倍。例如图2所示,Spark和MapReduce进行逻辑回归运算后的实验数据。
1.png



针对于非常考验系统性能的排序问题,图3是Spark与MapReduce对100TB数据样本排序的实验结果:MapReduce用了2100台机器,花费72分钟;而Spark仅用207台机器,不到前者的1/10,花费23分钟,接近前者的1/3。
2.png


此外,众多实验表明,在处理迭代式应用上Spark比MapReduce快20多倍;计算数据分析类报表的性能提高了40多倍;Spark能够在5-7秒的延时内交互式扫描1TB数据集。

Spark运行速度如此之快,主要得益于以下两方面:一方面,Spark中的运算大多是基于内存的。Spark提出了一种分布式的内存抽象,称为弹性分布式数据集(RDD,Resilient DistributedDatasets)。RDD支持基于工作集的应用,同时具有数据流模型的特点:自动容错、位置感知调度和可伸缩性。RDD允许用户在执行多个查询时显式地将工作集缓存在内存中,后续的查询能够重用工作集,这极大地提升了查询速度。另一方面,Spark从稳定的物理存储(如分布式文件系统)中加载记录,记录被传入由一组确定性操作构成的DAG,然后写回稳定存储。DAG数据流图能够在运行时自动实现任务调度和故障恢复。尽管非循环数据流是一种很强大的抽象方法,但仍然有些应用无法使用这种方式描述。Spark能够在多个并行操作之间重用工作数据集,适用于非循环数据流模型难以处理的应用。

特性二:易用
Spark编程非常高效、简洁,支持多种语言的API,如Java, Scala, Python等,而且代码非常简洁。例如在基于MapReduce开发的WordCount示例程序中,用户需要重写Map类和Reduce类,虽然MapReduce类似八股文的程序编写模式极大地简化了并行程序开发过程,但是程序代码至少几十行。若基于Spark开发同样的WordCount程序,仅需下面短短的几行代码,例如下面程序是对存储在HDFS上的wc.input中的单词个数进行统计:
sc.textFile("hdfs://master:8020/user/dong/spark/wc.input").flatMap(_.split("")).map((_,1)).reduceByKey(_+ _).collect
由此可见,Spark编程非常简洁。这主要是因为Spark是基于Scala开发,其对数据处理提供了丰富的操作,极大地提高了用户的程序开发效率。
目前基于Spark的实际项目开发中约70%采用Scala语言,这是因为Spark本身就是基于Scala开发的;其次是JAVA,约占20%;此外还有Python等。

特性三:通用
相对与第一代的大数据生态系统Hadoop中的MapReduce,Spark 无论是在性能还是在方案的统一性方面,都有着极大的优越性,虽然MapReduce在此方面也在做积极的努力,但Spark的优势还是明显的。Spark框架通常涉及到五个最核心的组件。如图4所示,位于下面的Apache Spark又称为Spark Core。在Spark Core的基础上,针对一些特殊的需求,Spark开发了一系列组件:Spark SQL(在Spark上建立是SQL,类似于Hive);Spark Streaming(实时流处理系统);MLlib(用户友好的机器学习库);GraphX(图处理组件),此外还有一个BlinkDB(基于海量数据的交互式查询引擎,能够在设定的误差范围内或响应时间内进行SQL查询)。将这些组件放在一起,就构成了一个Spark的软件栈。基于这个软件栈Spark提出并实现了一种理念“one stack to rule them all”,即Spark可以对大数据进行综合处理:实时数据流处理、批处理和交互式查询。这一软件栈就体现了Spark的通用性。
3.png


特性四:多种运行模式
在运行方面,Spark的运行无处不在。Spark既可以运行本地local模式,也可以以Standalone、cluster等多种模式运行在Yarn、Mesos上,还可以运行在云端例如EC2。此外,Spark的数据来源非常广泛,可以处理来自HDFS、HBase、 Hive、Cassandra、Tachyon上的各种类型的数据。

借助Spark快速迭代的优势,CDA大数据分析师课程着重学习Spark内容,通过案例分析实战,解决工作应用中的难题。

想了解大数据技术与应用?想了解大数据分析工具Spark?
CDA大数据分析师周末班课程-12期课程最新大纲出炉了,可申请免费试听!
时间:2017年8月05日——2017年8月27日
费用:8800元(现场班)/5800元(远程直播)

一、报名流程
1. 在线填写报名信息(扫码访问)
官网端:
(北京&上海&深圳&远程)
微信端:
5.png

2. 给予反馈,确认报名信息
3. 网上缴费
4. 开课前一周发送电子版课件和教室路线图

二、优惠信息
1.全日制学生及CDA LEVEL Ⅰ老学员8折优惠;
2.提前一月报名并缴费立减500元
3.三人及以上报名9折优惠,五人及以上8折优惠;
4.同时报名参加LEVELⅠ和LEVEL Ⅱ享受8折优惠。

三、学员对象
1.从事数据分析相关工作,希望提升大数据实战能力的企业数据分析人员。
2.从事咨询、科研等与大数据应用领域相关工作的专业人士。
3.从事数据挖掘和大数据等相关领域教学的高校教师。
4.有志于从事商业大数据分析分析工作的学生。

四、联系我们
电话:010-68411404
手机:18511302788(王老师)QQ:28819897102881989710
         18500368335(孙老师)QQ:28819897092881989709
邮箱:wzd@cda.cn
         sj@cda.cn
—— Join Learn!

课程详情:https://www.cda.cn/kecheng/35.html

课程试听:https://www.cda.cn/gkk/4.html






二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝


以大数据分析技术为主线,以大数据分析师为培养目标,从数据分析基础、linux操作系统入门知识学起,系统介绍Hadoop、HDFS、MapReduce、hive和Hbase等理论知识和基于Spark的大数据分析,详细演示Hadoop三种模式的安装配置,以案例的形式,重点讲解基于Spark技术的回归分析、聚类分析等大数据分析案例。

使用道具

cda-孙晶 发表于 2017-7-7 11:06:50 |显示全部楼层 |坛友微信交流群

回帖奖励 +3 个论坛币

好的课程,收货满满

使用道具

cda-孙晶 发表于 2017-7-7 11:07:56 |显示全部楼层 |坛友微信交流群
课程重点培养基于Hadoop架构的大数据分析思想及架构设计,掌握使用Hadoop架构应用于大数据分析过程。通过演示实际的大数据分析案例,使学员能在较短的时间内理解大数据分析的真实价值,提升成为兼有理论和实战的大数据分析师。学员结业后,可以在公司或实验室亲自搭建大数据平台,在引入公司的业务数据后,使用spark进行大数据分析。具备进入某个大数据团队,承担大数据分析师的工作的能力。

使用道具

Still.. 企业认证  发表于 2017-7-7 11:08:05 |显示全部楼层 |坛友微信交流群

回帖奖励 +3 个论坛币

CDA大数据分析师课程,课程内容专业、充实,支持!

使用道具

回帖奖励 +3 个论坛币

thank a lot

使用道具

huhuhuhu 发表于 2017-7-8 08:04:17 |显示全部楼层 |坛友微信交流群

回帖奖励 +3 个论坛币

谢谢分享

使用道具

xujingjun 发表于 2017-7-8 08:11:28 |显示全部楼层 |坛友微信交流群

回帖奖励 +3 个论坛币

使用道具

cxzbb 发表于 2017-7-8 09:54:09 |显示全部楼层 |坛友微信交流群

回帖奖励 +3 个论坛币

kankan

使用道具

xusuhuai 发表于 2017-7-10 14:37:41 |显示全部楼层 |坛友微信交流群

回帖奖励 +3 个论坛币

谢谢分享

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-3-28 17:00