请选择
进入手机版
|
继续访问电脑版
签到
苹果/安卓/wp
苹果/安卓/wp
客户端
0.0
0.00
推广加币
数据VIP
升级SVIP
注册
|
登录
项目交易
CDA数据分析师
CDA网校
CDA社区
CDA认证考试
CDA俱乐部
CDA Live
在线教育
JG学术培训
经管云课堂
CDA网校
CDA数据分析研究院
统计软件培训
金融科技
就学培训网
经管题库
培训证书查询
成为签约讲师
经管文库
专家入驻
学术博客
就学平台
美国在职研究生
论坛BBS
服务一览
VIP服务
数据VIP
贵宾服务
数据库
兑换商城
广告服务
案例库
软件销售
校园代理
文献下载
会员课服务
我的
帖子
收藏
好友
我的空间
关注的人
关注的贴
找人
文库
任务
道具
勋章
网站地图
搜索
搜索
用户
人大经济论坛
›
标签
›
大数据
标签: 大数据
经管大学堂:名校名师名课
相关帖子
版块
作者
回复/查看
最后发表
【独家发布】【前瞻产业研究院】预见2022:《2022年中国大数据产业全景图谱》
数据分析与数据挖掘
流水本无意
2022-5-18
1
1473
三江鸿
2022-5-26 09:57:40
2013年【大数据分析】从业者必读的三本原版图书
数据分析与数据挖掘
lsp_lsp
2013-11-14
67
14835
JackLee0723
2018-7-1 16:20:52
【微电影】当数据分析员遇上杂乱的报表……
人工智能
ml8709
2013-8-19
14
5918
deportee
2016-12-30 19:35:24
[英文原版]Hadoop in Practice_Holmes 2012
数据分析与数据挖掘
princekarate
2013-8-21
10
5483
albertwishedu
2016-2-12 23:47:53
用户数据分析=读心术? 大数据时代的商机!
人工智能
pandaxiong2012
2013-5-25
4
5549
smile_fighter
2015-2-28 15:52:01
ITAT数据统计分析师认证的考试与培训
数据分析与数据挖掘
数据分析师3K
2012-7-12
937
76123
huzhongjin
2014-11-25 21:39:34
关于大数据的几篇分享
人工智能
rjxzlcj
2012-12-4
1
2080
wuya100
2014-9-4 14:31:48
关于“大数据”的五大误解—— 作者:凯特.克劳福德(微软研究院首席研究员、麻省理工
真实世界经济学(含财经时事)
sophiebaw
2013-5-18
22
5742
wuya100
2014-9-4 12:50:57
《大数据》作者:涂子沛——使用数据是一个国家的生存技能 (文源:国际先驱导报)
真实世界经济学(含财经时事)
sophiebaw
2013-5-26
3
5431
dajiang
2014-7-7 19:07:50
世界迎来大数据时代
真实世界经济学(含财经时事)
sophiebaw
2013-5-8
3
3762
JiaBinXu
2014-5-25 16:13:34
大数据时代的中国机遇 -- 访IBM中国研究院院长沈晓卫
真实世界经济学(含财经时事)
sophiebaw
2013-5-9
2
3740
JiaBinXu
2014-5-25 16:12:42
大数据如何贡献大价值?
数据分析与数据挖掘
mashimaroq
2013-8-13
10
6297
nightmarehelen
2014-4-29 14:59:38
2011-2015大数据云计算研究 软件并行计算IT虚拟化数据挖掘
行业分析报告
nexus3
2013-5-3
3
5711
xyh1020
2014-2-12 14:51:10
大数据时代基于SOA架构的人力资源管理信息平台建设
人力资源管理
吴下阿谋
2013-7-24
2
4822
奶……茶
2013-12-5 10:53:39
招聘数据产品经理-国内大数据技术公司
经管类求职与招聘
余德乐
2013-11-25
0
1206
余德乐
2013-11-25 13:17:32
嘀嘀打车千万美元融资后高薪挖数据分析数据挖掘人才
人工智能
鑫顺
2013-11-17
1
1659
zzqu
2013-11-18 08:29:02
大数据报告:A near-term outlook for big data
行业分析报告
chj1983wd
2013-7-29
116
8214
JCCII
2013-10-3 11:15:54
什么是大数据xiand
新手入门区
gl6866
2013-7-20
0
2859
gl6866
2013-7-20 23:51:18
“虚拟现实之父”出书批判大数据 ——观点源自《谁将拥有未来》作者:杰伦.拉尼尔
真实世界经济学(含财经时事)
sophiebaw
2013-5-19
1
3274
Competitor
2013-5-19 11:04:28
分享一段宏——大数据排序问题
SAS专版
醉_清风
2010-8-27
5
3647
ryuuzt
2010-8-27 14:37:16
更多...
相关日志
分享
听说你立志要做数据分析,不如先听听老司机的建议?
huangjinran
2018-6-20 11:59
本文来自微信公众号 “土拨鼠的菜园地” (ID:gh_30a852e13a3a),系公众号原创文章,如需转载,请注明出处。部分图片来源于Pixabay。 每年总有很多人,怀揣着对世界的一知半解、满腔似火的热情、还有对美好生活的向往,走出象牙塔,投身社会。 世界很大,诱惑很多。对于未来,甚至在工作多年后,他们仍然没有清晰的方向,或者缺乏独立、深度的思考。 方向很重要,而人生很短暂。往哪里走,怎么走,再怎么也得花点时间思考一下,不是吗? 如果你决心要在数据科学领域有所作为,或者立志做数据分析,这篇文章提了点小建议,希望对你有所帮助。 一、去大厂还是去小厂? 我们做每件事之前,都要先明确做这件事的目的和意义是什么。 先来问问自己,做数据分析的目的和价值是什么?我的理解是, 致力于用数据帮助企业解决业务问题,辅助业务决策 。 关于这个问题,你可以花3-5年时间来思考和领悟,不急,但需要想清楚。 你还面临一个抉择,到底是去大厂还是去小厂? 之前接到很多猎头电话,不少都会问:“你是做分析还是做挖掘的呀?”刚开始,也常会和猎头在电话里“理论”一番。后来在大厂待过才明白,大厂分工比较细,分析是偏向经营分析,即取数分析写报告,而挖掘则是建模调参部署等。小厂就不一样了,谈需求、确定思路、指标设计、平台搭建、接入数据、处理数据、建立宽表、模型训练、结果分析、撰写报告、模型部署、报表计算、数据可视化等一整个流程,一个人几乎都可能会参与。 如果有机会,请 一定要去大厂历练几年 !大厂大多都很开放,常常敢为天下先,敢于引入一些新的东西,包括技术、思维、制度,技术比较先进,优秀的人也很多。大厂的管理制度也很完善,福利待遇当然会更好些。大厂的数据规模绝对够大,而且应用场景也多,可施展的空间应该会比较大。所以,抱着学习的态度在大厂里混几年,是可以成长很快的。(有好,当然也有不好)大厂流程繁杂,整体效率偏低,提一个取数申请可能需要1-2周。大厂的内部竞争也大,存在于不同项目团队,也存在于同一部门不同成员之间。大项目资源投入大,小项目资源申请很困难,重视程度也不一样。最主要的,大厂分工很明细,不同职位的轮换似乎不大容易,从入职到几年后离开一直做经营分析都是有可能的,容易导致能力的单一,不利于个人综合素质的培养。 相比之下,小厂就灵活多了,人和事都不会很复杂,而且效率也高。小厂可能会优先考虑做这件事情的投入和产出,即看应用效果。(大厂反而愿意给资源去试,短期内不怎么关注投入产出。)所以,在小厂工作,既要学会帮公司赚钱,也要学会帮公司省钱。小厂分工不会很细,大多需要一个人做多种工作。所以,小厂里面的程序员常常身怀多技。但小厂数据规模小,技术实力较弱,团队成员整体素质不高,而且项目流程不大规范,常常怎么简单怎么来,怎么高效怎么来。有些小公司的码农,除了对外发过一两封邮件,平时的沟通几乎是在QQ里,结果待了几年之后连写一封邮件都不会。有些小厂自己没有数据,重要是作为乙方给大企业做项目,这种模式常常受甲方牵制,可发挥的空间很小,而且一个项目周期往往比想象中要长(我本人之前就厌倦做乙方),因此不大建议去这样的公司。 不管大厂还是小厂, 在选择时,建议都要看看所要加入的团队 。 综合来说,建议 先去大厂混几年,再去小厂 找个Title高点的职位发挥自己所长。 再来说几句,什么场景下分析,什么场景下挖掘呢? 分析其实是一个很笼统的概念。把当前营业额跟去年同期做对比发现增长了不少,这个也可以认为是分析。 分析是从数据中发现问题或规律,并提出合理的建议 。分析常常伴随着要写报告,进而要给业务方汇报分析结果。 最好是给决策层汇报 ,因为决策层有拍板的权力,而且对数据结果的感知和可能的应用有自己独到的认知。 如果需要把分析的结果固化下来,定期输出结果,提供给业务方,这个时候就需要开发数据产品了。 挖掘是用算法解决某个具体的复杂问题,用常规分析方法解决不了的 ,如客户流失预警、商品最优推荐组合、最有投递路线规划等。 所以,我一般认为,分析是从数据中发现问题或规律,而挖掘是其中的一块。 数据技能知识一览 二、1-3年,“所见即所得”,打磨基础技术 在职业生涯的初期,请牢记,“ 所见即所得,所感即所知,多见即多得,多感即多知 ”。 不管在大厂还是在小厂,一定要参与到实际项目当中,好好打磨自己的技术。不管是大项目还是小项目,一定要借助来之不易的机会,以极致的工匠精神修炼自身。 你最好能 从基础数据处理做起 。只有这样,你才能早点知道,数据并不像在学校里做实验用到的数据那样“好”,它可能看起来“又脏又乱”。只有这样,你才能早点知道,给你取数的那个程序员是如何花了2-3天甚至一周时间才把数算好。 如果你 精通SQL ,那就太好了,这样就可以直接能够在数据平台查看原始的数据了。 最好要看一看最原始的数据长什么样。你不一定能一下子理解这些数据,但你可以慢慢地感受它们,因为它们所投射出来的是最真实的业务场景。 举个例子吧,原始的会员注册信息数据里面,性别一般填“男”、“男性”、“女”、“女性”、“未知”、“其它”等值,但处理好之后的二手数据里面,性别就变成了“男”、“女”、“未知”等三个值了。仅看这三个值,可能会漏掉一些业务场景,填“男”可能是从移动端输入时选择的,填“男性”则可能是手工填写注册表格时勾选上的。而漏掉的这个场景,说不定就是所要找的那个分析点。 你最好还能 熟练掌握一两门编程语言 ,比如当下流行的Python,作为入行的基础技能。(顺便说一下,码农界普遍认为只会SQL的不算真正的程序员~~) 当今时代,编程已经从娃娃开始抓起。早在5年前,英国规定5岁以上儿童必须学习编程课,法国将编程列入初等教育选修课程,美国已有40个州制定政策支持计算机科学,有35个州将计算机科学课程纳入高中毕业学分体系。 美国前总统奥巴马就曾在全美发起“编程一小时”的运动,旨在让全美小学生开始学习编程。 2017年,浙江、北京、山东等省 确定要把Python编程基础纳入信息技术课程和高考的内容体系。 编程将是一项很基础的技能,也将是承接其他知识的基石。 在未来,会编程很可能跟使用智能手机一样普遍 。 当处理基础数据的时候,必然会在数据库或数据平台上进行。你可能 需要对这些存储数据的环境加以了解 ,如传统的结构化数据库Oracle、Mysql、DB2等,又如当下流行的Nosql数据库HBase、Redis、MongoDB、Cassandra等,再如大数据集群平台、原理及其相关概念,类似Hadoop、Hive、Hue、MapReduce、Spark、Scala、Sqoop、Pig、Zookeeper、Flume、Oozie等。你或者也需要了解数据传输的工具,如DataStage、Kafka、Sqoop等。你甚至也可能被安排做安装系统、部署软件、配置环境、同步数据等一些琐碎的工作。 关于这些,如果你非常感兴趣,可以考虑往大数据平台方向发展,成为数据开发工程师、数据平台运维工程师、或者数据平台架构师。 你不必理解太深,可仅仅停留在了解层面,但知道这些知识会让你和数据开发工程师、运维工程师和平台架构师沟通起来顺畅很多。 当处理和分析数据时,有些 关于数据的操作是必然需要掌握的 。首先是常见格式的数据导入导出,如TXT、CSV、XLS,然后是主要的数据加工技巧,包括建表/视图、插入、更新、查询、并联、串联、汇总、排序、格式转换、循环、常用的函数、描述统计量、变量,等等。 这些操作很基础,但不简单。你可能经常会遇到各种情况,如花了一个下午时间就是没能把一个很小的CSV数据文件正确地导入到数据库中,不是乱码就是错位,或者两表关联时老是报一些烦人的错误,或者日期字段进行格式转换时出现空值......反正状况百出,防不胜防。 关于这些基础操作,需要不断积累经验,尽量能够做到在不同场景下快速高效地完成,轻松应付。 如果有人已经给你取好了数,而你的工作是分析数据写报告,那么分析技巧首先是你需要培养起来的。对拿到的数据,要时刻保持疑问,不能太乐观,因为别人算好的数据未必完全是你想要的数据,又或者数据质量并不是你想的那样好。 在分析之前,需要进行数据探索,看看数据质量如何。比如,你需要清楚有多少数据量,有什么信息,可衍生什么指标,缺失情况如何,如何填补缺失值,值的分布情况如何,如何处理极值,名义/字符变量是否需要转换,等等。 分析时, 要清楚指标不同形态的含义 ,如绝对值、占比、同比、趋势、均值、标准差,等等。 在这里,我想指出, 数据有对比才有意义 。如果一个穷人捡到100元,他会很高兴,这够他吃好几天了。但如果让一个富人去捡100元,那感觉就不一样了,他可能觉得他不值得这么做,因为用弯腰去捡的时间挣到的钱远远不止这么多。 统计学知识是必须要掌握的 ,这是基础。如果你非数学或统计学专业出身,那么请自学。 另外,也请你一定要 掌握主流算法的原理 ,比如线性回归、逻辑回归、决策树、神经网络、关联分析、聚类、协同过滤、随机森林,再深入一点,还可以掌握文本分析、深度学习、图像识别等相关的算法。 关于这些算法, 不仅需要了解其原理,你最好可以流畅地阐述出来,还需要你知晓其在各行业的一些应用场景 。 关于这些算法,你最好能够 参与关于模型开发的具体项目实践 。那样的话,你就可以清楚关于建模的大概流程是怎么样的,不同算法在建模中有不同,需要注意哪些地方。 如果你打字速度不快,那也最好重视起来 ,这虽然是一个不痛不痒的问题,但也在较大程度上影响你的工作效率,进而影响到你的工作产出,当然也可能因此会影响到你的薪资哦! 另外,还有一些 提高工作效率的小技巧 ,也可以多学多掌握。例如,一些电脑的快捷键,定期保存文件,文件的归类存放和快速查找,等等。 作为职场新人,你不仅需要打磨技术, 纯技术之外的技能也需要不断修炼 。 职场的做事方式方法、为人处事以及一些潜规则,更多时候只能靠悟,说出来就可能不大好了,因此需要不断领悟。毕竟, 悟性这东西是很重要的 。 还有, 沟通 是码农普遍的老大难问题,建议重视起来并加强。 你甚至可以学一下投影仪或打印机怎么用。(说不定可以靠这个技能在老板或同事前面大攒人品哦~~) 如果你有机会和很牛的人在一起工作,那你太幸运了。你可以 多请教优秀的人一些问题 ,也可以平时 多观察那些优秀之人的做事方式、工作习惯 ,看看有哪些好的地方、好的品质值得你学习。只要吸纳进来,就可以转化为你的优点,推动你进步。 我毕业的第三年,看到俞敏洪老师在一些演讲中提及他大学时读了800多本书,很受触动,真正认识到了读书的重要性,于是给自己制定了一年读50本书的计划,什么书都读,三年左右时间,我的心智和心态都发生了很大的改变,完全不一样了。 俗话说:“三人行,必有我师。”每个人都有每个人的优点,对于所遇到的每个人,建议多欣赏别人的优点,少抨击别人的缺点,这样你就可以“兼收并蓄”,逐步塑造更好的自己。 三、3-5年,“技多不压身”,拓展能力边界 当迈过了最初的3个年头后,你的技术越来越好,也做了不少项目,也越来越清楚自己未来的方向,但你也会发现有越来越多的东西还需要去学习和加强。 这个时候,你的知识是零散的,还远未形成体系。你也许还需要花些时间好好 梳理和总结过去几年积累的经验和知识 ,不断沉淀, 形成自己的知识体系和方法论 。在梳理的过程中,你会不断清楚自己有什么,缺什么,哪些地方弱,哪些地方强,未来需要花多少时间补强哪项技能,等等。 你可以沿着数据的整个流程,即数据采集、数据存储、数据处理、数据分析/开发模型、报表计算、数据可视化,不断拓展自己的能力边界, 最好在流程中的各个环节都做过项目 。 例如,在数据采集环节,你可以学一下爬虫技术。 这个时候,你不再是新人。新人大多是等着别人安排工作,并在详细的指导之下完成。而你慢慢成长为老司机了,需要独立完成一个个任务了,如独立开发一个模型、写一份会员分析报告、梳理关于近期营业额下降原因分析的思路,等等。你 需要不断适应在无人指点的情况自己去寻求问题解决办法 ,也可能需要应对此前没有遇到过的新情况并独立展开调查研究。几乎没有人帮你,你也没法指望别人明确告诉你怎么做。而你需要的是,历经3年之后成长路上的一个质变。 在这过程中,你可能需要不断查找资料,咨询别人,并加以思考,梳理出有效的方案,最后落地执行。在这过程中,可以有效训练以下几方面的能力: 查找资料 会问问题 总结梳理 写作能力 关于总结梳理,建议定期做,常常做,每天做,建议养成一个日常习惯。 对于不同问题和场景的思路整理总结,常常需要方法论指导,如麦肯锡金字塔原理、结构化思维等。关于这些方法论,不仅要谙熟于心,也需要将其应用到实际工作当中。这是受用一生的知识,你也可将其运用到你的日常生活中,用以解决你日常的问题和需求。 关于思路的整理,可以 借助思维导图工具 。 另外,请注重 培养自己的数据敏感性和数据思维 ,越早开始越好。关于如何培养数据思维,将以另外的文章单独阐述。 EXCEL是操作和处理数据最方便的工具,也是必须掌握的办公软件。很多人会用EXCEL,但根本不精通EXCEL。 简历里那句“精通EXCEL等办公软件”(你的简历里是否也这样写~~),常常是一个谎言 。建议你 好好学一下EXCEL ,包括展示数据、透视表、函数、画图、动态图表、VBA等。不要仅仅停留在最粗的层面,比如画图,使用默认设置也可以画出一个图表,但是不好看,阅读体验不好。关于怎么用EXCEL画好图表,推荐阅读《EXCEL图表演示之道》、《最简单的图形与最复杂的信息》。 写分析报告,难免会用到PPT。关于如何 写好PPT 这件事,从来就不是件轻松的事。但你可以给自己一些时间去学,比如3年、5年、甚至10年。刚开始,写得不好没关系,但一定不要放过每一次锻炼的机会。 关于PPT的技巧,将有更多的文章单独阐述。 在领导眼里, 会写材料的人比会编程的人更有存在感 。而且,会写材料的人总是显得那样“稀缺”。如果你是别的同事眼里的“会Coding的人中最会写PPT+会写材料的人中最懂技术”的那个人,那你将会很受重用。 四、5-10年,“不忘初心”,有所为有所不为 在别人眼里,数据分析和开发模型是很高大上的。但这高大上,常常处在很多尴尬的处境。数据分析汇报一次之后就没了下文,模型开发了,部署了,也定期出数了,但就是没用起来。用户方或业务方觉得这些东西对他们业务帮助不大,可有可无(虽然包装一下用来忽悠一下投资人可能也有点用处),还不如一个经验规则来得有效,简单粗暴,省时省力。 关于经验规则和算法模型之争,如果你坚定认为你开发的模型比业务方所认为的经验规则更有效,那么,请你拿出“证据”,用数据说服业务方,让他们改变观念,觉得你是对的。 之前信奉的那句“数据驱动业务”,是不是错了吗? 此刻,请回到初心吧!我们的初心是什么?那就是用数据帮助业务解决问题,用数据辅助业务决策。数据分析只是其中一种形式,当然还有其它。因此,不要迷恋数据分析,不要迷恋算法模型。“不管黑猫白猫,抓到老鼠就是好猫。” 如果你能够从数据分析和算法模型的困囿中挣脱出来,那么你将发现你面对的是广阔天地,你可以在数据的海洋里肆意遨游 。 你或许开始注重 追求数据解决方案的实用性,强调落地执行,更看重应用效果 。 你 必须真正理解业务方的需求 。当业务方进行选品和定价时,他们需要一份关于竞品的商品数据来做参考;当业务方想随时看到当前时刻的订单量(特别是618或双11),你需要实时汇总数据并实时呈现给他们;当业务方既想看总体的经营数据,也想看各区各部门各门店的经营数据,你需要开发一个多维度层层钻取查看的功能......而这些都不是数据分析和算法模型,但这些也是数据应用,也能产生数据价值。 如果有机会,不妨尝试 做个数据产品经理 。数据产品经理需要从产品角度实现业务功能。在当前数据产品化的趋势下,这是一个很有挑战性的事情,不容易做好。毕竟,讨好一大群用户,比单独讨好一个用户要难得多。 在数据产品设计里, 数据可视化 是一个重要的事情。 好的图表会说话,好的功能会抓住用户的心 。即便撇开数据产品,我们在分析报告里也会需要数据的可视化表达。 数据可视化传递的是一种明确的数据信息,一目了然,赏心悦目。从画好一个数据图表,到功能版式的精心设计,再到对功能细节良苦用心的把握,你需要不断精进。一旦你感兴趣,你将会很快沉迷于其中,因为那是一种美的表达。 五、10年+,“砥砺前行”,创新、创业、创造 是的,你已经做了十年,希望你无悔当初的选择与坚持。 此时你也遇到很多瓶颈,或许你空有一身好武艺但得不到老板重用,或许你想做个实力派但处于各种原因离技术越来越远,或许你很努力但职务仍然上不去,或许你面对繁重的工作心有余而力不足,各种分身乏术......你一直在等待和寻找着机会,突破自己。 此时你也渐渐步入了中年,或许你开始变得油腻,或许你的身材早已远离苗条,或许岁月在你的脸上、头发上开始留下痕迹,或许你的思想渐渐固化,不能与时俱进了......最重要的,或许就是你早已没有了当初的激情。 如果你在一个行业待了十年,在别人眼里,无论怎样,都已是个专家,所以,请自信! 你还需要在圈里有一定的影响力,需要 树立个人品牌 ,最好能在圈里外有较好的传播。如此这样,当别人提起你的时候,他们常会这样说,“这个人分析能力很强”,“他在数据领域造诣很深”,“他建模能力出众”......如此种种,在他们眼里对你印象最深刻的标签将会是你最想要的那个。 或许你需要逐步 提升讲课程的能力 ,这是一种知识分享与传递,也是提高个人影响力的有效途径。不要放过任何露脸的机会哦! 你或许已经深刻明白,分析的结果、开发的模型、数据产品只有被应用起来,才真正算是产生价值。你会越来越 关注数据应用 的问题。当你开始聚焦这个问题时,你会问自己,”用户或业务方真正需要什么?“这个时候,你得有用户思维了。你会加强对业务的重视程度,也会不断 回到业务层面去思考数据的实际应用 。 你最好也时刻 关注当前社会的趋势和潮流 ,特别是与互联网相关的。这样可以让你保持开放的心态,洞悉社会的风向,驱动自己的思考,挖掘潜在的机会。你可以从中了解当前行业中成功的数据应用案例,开拓自己的思路,多想想用数据还可以帮助各行业解决什么问题,可能的机会在哪里,自己应该怎么做。 你可能要面对的是,数据应用对一个行业或一个企业来说,永远都是在探索。某个数据应用思路或项目一旦成功了,就会得到越来越多的资源投入,越做越大,如果失败了,就会立刻遭放弃。因此, 要有创新精神 ,要有创新的勇气和自信。 职位上来说,你可能开始担任一定的管理工作。因此,你还得学会 团队管理 , 懂得如何向上管理和向下管理 。 你的日常事务会越来越多,你也需要学会 有效管理自己的时间 。你可以成为一名“ 清单控 ”。但必须指出的是,时间管理,最本质的还是自我的管理,对精力的管理。你需要开始意识到加强身体锻炼的重要性了。一来,保持身材,对发福说不,二来,保持精力的旺盛,抵抗疲倦,第三,通过不断挑战自己的身体极限来刺激自己,找回激情。 你也需要开始认真考虑如何 平衡工作和家庭 的问题了。 这个世界一直在变。我们也一定要“善变”,顺势而为。 不管是10-20年前的BI(商务智能),过去几年的大数据,这年头炒得火爆的人工智能,还是未来涌现的更多概念,只要我们足够开放,敏感洞察,挖掘机会,创新、创业、创造,不断成就自己。 汪国真在《热爱生命》里写道:“我不去想是否能够成功,既然选择了远方,便只顾风雨兼程。” 英雄不问出身,只要你下定决心,即使再晚出发,也会达到,还可以走得更远。 最后,作为数据人,与你共勉,“ 不做数据的搬运工,要做价值的缔造者 ”。
个人分类:
技术/职场
|
14 次阅读
|
0
个评论
分享
厦门国家会计学院—企业集团财务、业务、信息一体化高级研修班
国家会计学院¥
2017-9-19 11:56
厦门国家会计学院 ——企业集团财务、业务、信息一体化高级研修班 的通知 一、研修背景 当今世界,是一个信息化快速发展的时代,伴随着“互联网 + 服务”的日益推进,量子通信、人工智能、云计算、大数据、物联网、电商平台、比特币、区块链等新技术层出不穷。 在这种信息时代的大背景下,企业的高级财务人员不禁会问: 区块链最长账本与会计总帐有何不同? 大数据与财务数据如何实现融合,共同助力企业的战略腾飞? 在企业管理实现 ERP 系统情况下,如何培养新时代的 CFO ? 企业 ERP 如何通过管理会计和生产运作为财务业务信息一体化提升服务? 在企业信息化过程中如何实现数据安全和系统容灾管理? 物联网、云计算原理如何与业务财务信息一体化相结合,为企业发展服务 ? 大企业财务业务信息一体化,有什么成功的案例? 在网络经济环境下如何实现企业财务信息资源的全面管理? 为了回答这些问题,厦门国家会计学院积 15 年财会人员高端的丰富经验,从累次的问题中抽取与信息化相关的关键问题,组织了业界具有丰富实战经验、懂财务、懂业务、懂信息的咨询专家,以及厦门大学等院校的理论专家,组成强大阵容,希望从信息化的角度来诠释管理会计的应用和财务业务信息一体化的最新理念。 二、目标学员 1 、企业集团财务部门负责人、会计部门、财务管理部门管理者和业务骨干; 2 、企业财务共享服务中心管理者和业务骨干;企业核算中心管理者和业务骨干; 3 、企业 ERP 系统管理者和业务骨干; 4 、高校从事财务管理、管理会计教学的教师、以及其他相关师资; 5 、上市公司、国有企业、行政事业单位分管财务部门的领导。 三、内容安排 第一模块:区块链最长账本与财务业务信息一体化时代的到来 1 、从业财融合到财务 - 业务 - 信息一体化; 2 、区块链技术的发展; 3 、 Merkle 树与区块链最长账本; 4 、区块链技术应用; 5 、从区块链看未来财务发展。 第二模块:大数据的价值 - 让现在成就未来 1 、大数据时代背景及现状; 2 、移动电子商务大数据; 3 、金融大数据; 4 、大数据时代下的社交网络; 5 、动态社会营销; 6 、大数据电子商务财务信息链。 第三模块:企业集团 ERP 系统构建与 CFO 成长案例 1 、 ERP 系统构建过程中的财务核心作用; 2 、资金、成本、进度、收入、客户融合; 3 、以 ERP 系统为核心的财务业务一体化; 4 、企业 ERP 环境下 CFO 成长曲线; 5 、以财会视角看企业 ERP 。 第四模块:制造业 ERP ( SAP )财务业务一体化实战管理 1 、制造型企业自动化生产管理与财务信息传递; 2 、制造业 ERP 相关流程财务审计与执行; 3 、 从 ERP 系统角度看管理会计; 4 、 制造业 ERP 财务业务一体化案例分析。 第五模块:企业财务数据库及信息系统容灾解决方案 1 、财务共享服务中心的数据存储与备份; 2 、财务系统应用性能管理; 3 、数据库升级、迁移、维护管理; 4 、财务数据风险与灾害预防。 第六模块:物联网、云计算、及财务业务信息一体化 1 、物联网技术对企业的影响; 2 、云计算技术对企业的影响; 3 、 网络交易平台的建立对企业的影响; 4 、从企业应用新技术看财务发展的未来。 第七模块:互联网金融与金融行业变革 1 、互联网金融现象; 2 、互联网金融类型; 3 、传统金融行业面临的挑战; 4 、传统金融行业的对策; 5 、互联网金融案例分析 。 第八模块:企业集团的信息资源管理 1 、信息资源与信息不对称理论; 2 、企业信息资源过程管理 – 收集、处理、存储; 3 、企业信息资源安全管理; 4 、企业信息资源应用的智能化技术。 四、师资阵容 由厦门国家会计学院精心组织的专门师资团队授课,授课老师皆具有深厚理论功底及丰富实践经验。师资包括厦门国家会计学院教授、实务界资深专家、政策制定者等。 五、时间与地点 2017 年 8 月 14 日— 19 日( 14 日报到)——厦门国家会计学院 课程周期一般为一个月,具体开课时间以当月计划为准。请按照联系方式咨询详情。 六、收费标准及缴费方式 1 、每人收费 5800 元(含培训费、场地费、结业证书等费用); 2 、食宿费每人每天 285 元(含独立学员公寓、三餐及康体设施使用); 3 、报到时直接缴纳现金或刷卡缴费。 4 、银行汇款: 开户名:厦门国家会计学院 帐号: 4100020709226468888 开户行:中国工商银行厦门市思明支行 七、结业证书 结束后由厦门国家会计学院颁发结业证书。 报名程序: 请将报名回执表填写完整后发送至 finance_train3@126.com 。 联系人:杨洋——手机: 18511922067 联系 QQ : 2531848726 ——微信: b18301282664 国家会计学院——课程列表 http://blog.sina.com.cn/s/blog_152bbb4930102wzy1.html IPO 、 PPP 、华为财经、资产证券化、中高层管理、财务审计、人力资源、行政、销售、产品研发;
10 次阅读
|
0
个评论
分享
大数据将走下神坛回归正常
guoyunshuju
2014-12-3 11:38
近几年,大数据在国内发展异常的火爆,很多人觉得大数据很神秘,认为大数据在将来会是无所不能的。其实,大数据仅仅只是一种工具,一个技术手段,而不是万能的。而大数据也必将走下神坛回归自然。大数据在未来真正地价值在于对未来发展趋势地可预见性的预测,从而指导人们精细化地生活。 在以“石化能源“为基础的这一波工业经济发展到顶峰后,人口红利已到尽头,靠规模取胜的时代已去,其他手段都难以大幅提升效益的情况下,通过精细化、精准化的数据分析做精做细就成了产业发展的必然。目前的国际、国内无论是治国、还是工农商经济发展都遇到了瓶颈,各行各业大量的产能过剩,靠提高产量发展获得经济收益的时代一去不返了。大数据说白了,就是对过去的大量数据进行精准分析,归纳统计,精耕细作,他是改变过去那种粗犷的发展模式,向精细化要效益。所以它压根就不神秘,不高端,只是一个思维和行动方式的转变。 任何事物发展都是倒置的抛物线,当整个全球经济、一个国家、一个产业处在爆发增长阶段,靠规模效应就能获得好的收益。只有当用户发展遇到天花板、竞争异常激烈之后,大家才发现,粗暴式发展不行了,就需要经营出效益,就需要精细化。 人们对大数据狂热追寻的热度终究会降温,但是大数据分析的价值会继续下去。利用数据分析工具大数据 魔镜 , qlikview , tableau 等数据可视化工具来进行数据分析,能够指导人们如何采取正确的策略、流程和方法去从大数据分析中获得价值,比如需要哪些投资,需要培养哪种技能去实施大数据应用等 (via 大数据魔镜www.moojnn.com)
21 次阅读
|
0
个评论
分享
大数据论坛名额有限
lulysakuya
2014-7-30 11:06
“2014中国大数据国际高峰论坛”8月22-24在上海银星皇冠假日酒店举办。由中国科学院深圳先进技术研究院、中国量化投资研究院、上海大数据产业技术创新战略联盟(拟)共同举办。 届时将有100多位世界顶尖的大数据产业界专家和学术界知名学者,与400多位来自IT、金融、教育、医疗和ZF代表,共同探讨大数据产业发展以及大数据产品和工具等前沿话题,分享大数据智慧,探索各行业之间面临的数据分析应用问题的解决途径。 论坛为大数据相关行业、人员提供一个交流平台,收费只是平摊成本的哦!!参会和培训的报名火热进行中!!!赞助经费也到账,so,目前报名会给予优惠的哦。欢迎咨询0755-61596566/QQ:2733926955
13 次阅读
|
0
个评论
分享
2014中国大数据国际高峰论坛
lulysakuya
2014-6-26 17:24
"2014中国大数据国际高峰论坛”8月22-24在上海银星皇冠假日酒店举办。本次论坛是由中国科学院深圳先进技术研究院、中国量化投资研究院、复旦大学管理学院和上海证券报在上海共同举办 本届论坛将邀请100多位世界顶尖的大数据产业界专家和学术界知名学者亲临现场发表精彩演讲。同时,400多位来自IT、金融、教育、医疗、ZF和民间资本代表及媒体人共同分享大数据智慧,探索各行业之间面临的数据分析应用问题的解决途径。 来自IT、金融、教育、医疗等领域公司、机构的大数据需求与应用量与日俱增,包括交易所市场监察部门、信息管理部门,银行风险控制部门,移动运营商,电商,基金公司,券商以及高校相关专业等庞大的需求群体。 论坛日程表 8月22日 全天(周五) 高级研修班 09:00-17:30 大数据技术与应用高级研修班 8月23日 上午 (周六) 高级研修班 09:00-12:00 大数据技术与应用高级研修班 8月23日 下午 (周六) 开幕式/主题报告 14:00-15:00 开幕致辞?主旨演讲 15:00-16:15 主题报告A 数据之巅:大数据在国际的应用与展望 16:15-17:30 主题报告B 大数据时代:中国的挑战与机遇 18:00-20:00 欢迎晚宴(仅限受邀嘉宾) 8月24日 全天(周日) 专题论坛 09:00-10:15 专题论坛1 全球化视野:大数据应用“落地”的案例分享 10:15-11:30 专题论坛2 大数据“嫁接”金融行业:大数据在金融行业的应用 11:30-13:30 交流午宴(仅限受邀嘉宾) 13:30-14:45 专题论坛3 大数据重构企业智慧:大数据在消费领域的应用 14:45-16:00 专题论坛4 大数据在IT及其他行业的应用 16:00-16:15 茶歇 16:15-17:45 专题论坛5 大数据理论及应用学术交流
13 次阅读
|
1
个评论
分享
SAS数据挖掘小技巧——转置
intheangel
2014-6-24 13:34
转置大家肯定都会的吧,不就是transpose么,对吧。 那我先来简单介绍一下transpose这个proc;打开help文档搜索transpose proc 大家会发现transpose底下主要有这么几个设置; by, id, var ; 好的,这几个是起啥作用的呢,一个个来看; 还是举例子吧,不然凭我的智商可能说不清楚: 先看看原始数据集是什么样子的 (见图p1) 注意这么几个variable:index,group,response:group只有两个变量,response是我们感兴趣的值,index就是_n_对吧,注意index是唯一的,但是group是1,2交替出现的,所以不会有一个index的值即对应group为1,又对应group为2,等下看看转置后的结果大家就明白了; proc sort data=cluster.test out=test;by group;run; proc transpose data=test out=test; id index; by group; var response; run; 复制代码 大家看看结果啊(见图p2) id 说简单点就是新数据集的variable name,就是你新数据集的变量名称,所以一般会选index这种单一的变量,可以起到很好的标识作用; by 就是分类进行转置,一般选的是group或者date(日期)这种分组的变量; var 很简单,想转哪行就var哪行; 这样结果就出来了,就像我前面说的,index是唯一的,所以index=1的时候group=1有值,group=2就是缺失;后面也会有group=2有值,group=1为缺失的情况出现,图片可能看不到所以我解释一下,大家可以自己去试试; 好的,介绍完transpose我们可以进入正题了: 那就是大家真的要用transpose来进行转置么?答案是NO~~!!! 特别是真正在做数据的时候,很少会有人或者team会用transpose来做转置,除非是很小的数据集。当然,大家平时接触到的都可以归为很小的这一类,这也是大家经常用transpose的原因,事实上,我平时也很喜欢用,而且有时候transpose处理数据的效果非常的好,哼~~跑题了~~~ 那处理传说中的大数据的时候,大家是怎么转置数据的呢? 很简单不停的用循环和数组一行行或者一列列自己转,大家应该能看出来这样肯定会比transpose要快,因为你需要一行就导入一行来做,所以效果会很好。 但是用data步和do循环来做有一个前提,就是,你要对整个数据有充分的了解,而且在商业中大部分情况是把多个变量汇总到一个变量里面,所以这一题的情况并不适用,这么看来transpose要强大很多。 我简单举个使用do循环的例子吧,但是这个数据集是有要求的,也就是每个组的数据应该是一样多的,不然循环起来就会出错,前面给的例子group=2比group=1要多,我先把它们变得一样然后用循环来做一次; proc sort data=cluster.test out=test;by group;run; data test; set test; if _n_=108; run; data test; do i=1 to 54; /*每个组有54个数据*/ set test; array tr tr1-tr54; tr(i)=response; end; keep group tr1-tr54; run; 复制代码 大家可以看看结果(见图p3) 这个结果是不是比transpose的结果要好??(那是因为我们前面用了id,如果去掉会怎么样???) 但是在实际的商业分析中,大部分时候转置是要把多个变量转置成一个,而不是要把一个变量转置成多个,因为多维的数据建模起来会更加的困难,所以大家都喜欢低维数据~~ 那我们再把它变回来~ data test; set test; do i=1 to 54; /*每个组有54个数据*/ array tr tr1-tr54; response=tr(i); output; end; drop tr1-tr54 i; run; 复制代码 细心的同学肯定发现了,这里的set是在do外面的对么? 这就是行转列和列转行最大的区别了,因为一行转多列是逐行转的,所以我们要把set放在do里面,而多列转一行是一次导入在通过多个数组转的,所以我们可以把set 放在do外面一次性导入;(切记切记,如果转错了在数据量很大的时候可是很麻烦的一件事情哦),另外就是output的问题,一行转多列是不需要output的,而多列转一行是需要的; 我附上数据集test,大家可以自己去尝试,我自己是放在一开始的cluster目录下,大家自己放哪里就自己修改下,我就不在最前面再帮大家建个数据集了(这不是坑么?对吧。。。)
个人分类:
小技巧
|
63 次阅读
|
0
个评论
分享
大数据学习第一天
nathan08
2014-5-17 18:02
转自 http://blog.csdn.net/timothyzh/article/details/4440629 GGobi 是一个能够显示多变量统计图形的软件,同时还能够动态地展示变量之间的关系。这里介绍如何在Windows下安装GGobi,以及如何在R中也能够使用。 一、安装GGobi 参考其官方网站: http://www.ggobi.org/downloads/ 1. 到 http://downloads.sourceforge.net/gladewin32/gtk-2.12.9-win32-2.exe ,下载最新的gtk并安装,我安装在D:/GTK目录。安装后,进入cmd,执行gtk-demo,就可以试一试安装gtk是否成功了。一定看清楚了,这是gladewin32的gtk+-win32-devel的版本2.12.9。其中包含了glade接口和iconv等其它一些库文件。之前我就走了很多弯路,去安装了最新的 GTK+2 , Glade with GTK+ , glade-win32 等,都不能正常使用GGobi。 2. 到 http://www.ggobi.org/downloads/ggobi-2.1.8.exe ,下载最新的ggobi并安装,我安装在D:/Program Files/ggobi目录。安装后点击桌面的图标,就能够使用GGobi了。 二、安装rggobi Rggobi只是GGobi在R中的一个接口。这需要在R中安装一些packages。 我的R版本是2.9.1。 首先是RGtk2,参考官方网站: http://www.ggobi.org/rgtk2/ 1. 安装RGtk2: http://cran.r-project.org/web/packages/RGtk2/index.html 2. 安装cairoDevice: http://cran.r-project.org/web/packages/cairoDevice/index.html ,这样就可以试验下面的例子了: 这样才能够运行官网上的例子: win = gtkWindow() da = gtkDrawingArea() win$add(da) asCairoDevice(da) plot(1:10) 下面就是安装rggobi了,参考官方网站: http://www.ggobi.org/rggobi/ 3. 安装rggobi: http://cran.r-project.org/web/packages/rggobi/index.html 完成后,就可以试验http:// www.ggobi.org/rggobi/introduction.pdf 中的例子: g - ggobi(iris) clustering - hclust(dist(iris ), method="average") glyph_colour(g ) - cuttree(clustering, 3) 怎么样?你就能在R中自由使用GGobi了 大数据相关的工具 1、I2、SPSS 2、Tanagra 3、GGobi 工具只是一种手段,对于大数据的挖掘和分析,一定要通过建立模型来构建分析的维度。在工作的过程中,不断建立自己的数据分析思维,有了这样的数据思维,那再在工具的基础上,数据的挖掘和分析才能更加准确,才能最终提供有价值的数据支撑信息。
个人分类:
学习笔记
|
0
个评论
分享
大数据分析报告
abc888
2013-12-8 23:33
移动互联与大数据分析报告( 43页) 2013-11-28 中国金融行业大数据应用市场研究白皮书 2013-11-19 波士顿:IT优势(英文41 页) 2013-11-18 波士顿:如何用大数据来赢得真实的的优势( 英文10页) 2013-11-18 MM云计算的市场策略(67 页) 2013-11-01 贝恩:大数据-组织的挑战(英文8 页) 2013-10-30 麦肯锡调查:看好数字化战略(英文,7页) 2013-08-15 波士顿:数字生态系统时代-大数据欣欣向荣(7页) 2013-08-04 大数据发展跟踪研究报告(23页) 2013-07-30 基于大数据的电信运营商业务模式研究(7页) 2013-07-30 大数据时代媒体发展的SWOT分析(6页) 2013-07-30 大数据分析的应用案例研究(57页) 2013-07-30 大数据时代的跨界与颠覆(34页) 2013-07-21 埃森哲:从营销沟通到体验构建(8页) 2013-07-21 埃森哲:构建大数据基础平台(11页) 2013-07-21 麦肯锡《改变游戏规则:五个美国经济增长和重建的机会》 2013-07-18 麦肯锡:12项可能改变世界的破坏性技术(英文 180页) 2013-05-27 页次:1/1每页25总数17首页上一页下一页尾页
个人分类:
广而告之
|
29 次阅读
|
0
个评论
分享
BI和hadoop的免费资源
bushsin
2013-9-26 11:04
BIhuman培训中心 hadoop专业技术培训 3-6天让您走进大数据领域同时精心设计 BI高新课程 ,资深讲师、小班授课、详细请咨询王老师QQ:2351428474,可安排 免费试听 地址北京市昌平区回龙观西大街北京农场桥东龙冠大厦805室
7 次阅读
|
0
个评论
分享
大数据时代已经到来(转)
littlesas
2012-11-14 09:42
第一时间揭秘:帮奥巴马获胜的数据处理团队 依靠直觉与经验进行决策的优势急剧下降,在政治领域,大数据的时代已经到来 奥巴马连任成功。 虎嗅曾在 “ 奥巴马如何玩转社交 ” 里介绍了奥巴马团队如何与时俱进地利用各种新兴社交平台。玩转社交,这是奥巴马获取民意的前台表现。而在后台,是什么支撑着奥巴马各种竞选策略的出台呢?是什么决定他应该到哪些社交平台上去亮相呢?他的一个几十人数据分析与挖掘团队是支重要力量。 这支团队在 2008 年奥巴马竞选时就已存在并发挥作用。而这次,他们更动用了五倍于上届的人员规模,且进行了更大规模与深入的数据挖掘。它帮助奥巴马在获取有效选民、投放广告、募集资金方面起到一定作用。事实证明,奥巴马募集到的资金尽管与对手罗姆尼募集的资金规模不相上下,但前者从普通民众直接募集到的资金是后者的近两倍。 在奥巴马获胜几小时后, 《时代》杂志 刊发报道,揭示了这支团队的部分运作情况。该报道发出后,多家不同类型媒体转载,也引发了 硅谷科技人士的热议 。 以下是虎嗅编译内容: 大数据时代的总统选举 文 /Michael Scherer 在春季晚些时候,在幕后支持巴拉克 • 奥巴马获取胜利的数据处理团队注意到,乔治 · 克鲁尼在西岸对 40-49 岁的女性粉丝有莫大吸引力,这个群体无疑是为了在好莱坞与克鲁尼 —— 以及奥巴马共进晚餐而最愿意掏钱的一支人群。( 译注: 5 月 10 日,乔治 · 克鲁尼为奥巴马举办筹资聚会,当晚筹得竞选连任资金 1500 万美元。 ) 所以,就像他们对待所有其他收集、存储、分析的数据一样(这些数据是他们为了奥巴马的再次竞选而在过去两年收集的),奥巴马竞选连任的最高班底决定试试以上这个观察是否正确。他们从东岸的名人里选择到了一个对这个群体有相似吸引力的人,以图复制 “ 克鲁尼竞标 ” 中产生的千万美金效应。 “ 我们有丰常多的选择,但我们选择了女星莎拉 · 杰西卡 · 帕克。 ” 一名高级竞选顾问解释说。所以接下来与奥巴马晚餐的竞标诞生了:一个与他在帕克的纽约西村私宅吃上一顿的机会。( 译注:席位的公开售价是每位 8 万美元。 ) 对公众而言,他们不可能知道, “ 帕克竞标 ” 的想法来自于竞选团队对支持者的数据挖掘:他们喜欢竞赛、小型宴会和名人。 首席科学家 从一开始,竞选活动经理 Jim Messina 已经打算要搞一次完全不同的、以度量驱动的竞选活动, 该竞选的目的是政治,但是政治直觉可能并不是手段,数据是。 “ 我们要用数据去衡量这场竞选活动中的每一件事情。 ” 他说,在接受这份工作后,他雇用了一个五倍规模于 2008 年竞选时的分析部门,芝加哥竞选总部还任命 Rayid Ghani 为 “ 首席科学家 ” 。此人是埃森哲技术实验室的分析性研究带头人,他是知识发现和数据发掘这一应用科学领域的领军人物,其技术常用于公司处理海量数据发掘客户所好,比如将超市促销的效率最大化。 2011 年, Ghani 在一次谈话中透露,在政治活动中运用数据分析这一工具。他说难点在于如何充分利用在竞选中可获得的选民行动、行为、支持偏向方面的大量数据。现在选民名册与在公开市场上可得的用户资料紧密相连,选民的姓名和住址则与很多资料可以相互参照,从杂志订阅、房屋所有权证明,到狩猎执照、信用积分(都有姓名和住址登记)。 除了这些资料,还有拉票活动、电话银行的来电所提供的信息,以及其他任何与竞选活动相联系并自主提供的私人信息。加尼和他的团队将试图挖掘这一连串数据并预计出选民的选举模式,这将使奥巴马竞选团队的花费更加精确和有效率。 秘密进行 不过,这个几十人数据分析团队具体做了些什么,被严格保密。 “ 他们是我们的核编码。 ” 当被问及都做了哪些工作时,竞选发言人 Ben LaBolt 如此说道。 在办公室里,该团队会给各个数据挖掘实验进行神秘代码命名,比如独角鲸、追梦人。该团队甚至在远离其他竞选工作人员的地方工作,在总部巨大办公室的北边尽头,专设了一个没有窗户的房间。 “ 科学家 ” 们会为在白宫罗斯福厅的总统及他的高级幕僚发送常规工作报告,而更多的公开细节是不会透露的,竞选团队保护着他们自认为相对于罗姆尼团队有制度优势的地方:即数据。 11 月 4 日,一个高级竞选顾问同意匿名向《时代》杂志讲讲他们的前沿工作,也同时要让我们保证,除非竞选结束,否则不能披露信息。他们披露了他们如何利用海量数据分析挖掘,帮助奥巴马筹集到 10 亿美金,如何重新制订了电视广告投放,如何做出 “ 摇摆州 ” 选民的详细模型(该模型可用于提升利用电话、上门投递邮件、社会化媒体等手段的效率) 如何筹集 10 亿美金 奥巴马团队在 2008 年对高科技的运用赢得了无数赞美,但其成功也表明了一个巨大缺陷:数据库太多了。那时,通过奥巴马网站打电话的志愿者用的名单是一份赋闲在家者名单,这名单与在竞选办公室打电话人所用的名单是不一样的。而动员投票名单也永远不会与资金筹集名单重合。就像 911 之前的 FBI 和 CIA :这两支团队绝不会共享数据。 “ 我们早期意识到,民主党的问题就在于数据库太多了, ” 一个工作人员说, “ 数据库之间不彼此碰头。 ” 所以在头 18 个月里,竞选团队就创建了一个单一的巨大系统,可以将从民调专家、筹款人、选战一线员工、消费者数据库、以及 “ 摇摆州 ” 民主党主要选民档案的社会化媒体联系人与手机联系人那里得到的所有数据都聚合到一块。 这个组合起来的巨大数据并不仅仅让竞选团队能够发现选民并获取他们的注意,还能让数据处理团队去做一些测试,看哪些类型的人有可能被某种特定的事情所打动或说服。比如,在办公室里的电话名单上,不只是列出对方的名字与号码,还用他们可能被说服的内容、以及竞选团队最重要的优先诉求来排序。决定排序的因素中有四分之三是基本信息,比如年龄、姓别、种族、邻居以及投票记录。选民的消费者数据帮助完成这个图谱。 “ 我们可以预测哪些人会在网上捐钱,也可做出模型来看哪些人会用邮件捐。我们可以为志愿者建模。 ” 一个用数据来创建预测文档的高级顾问说, “ 最后,建模对我们来说变得是一种更重要的方式,相较于 2008 年而言,它让我们工作得更有效率。 ” 比如在早期,竞选团队就发现,在个人注意力最容易被重新吸纳回来的人群里, 2008 年曾经退订了竞选邮件的那部分人是首要目标。策略师为特定地域的人群制作相应的测试。看一个本地志愿者拨打的电话效果,如何优于一个从非摇摆州(比如加州)志愿者打来的电话。就像 Jim Messina 说的,在整个竞选活里,没有数字做支撑的假设绝少存在。 新的大数据库能让竞选团队筹集到比他们曾预料到的更多的资金。到 8 月份,奥巴马阵营里的每个人都认为他们达不到 10 亿美金的筹集目标。 “ 我们曾经有过很大争议,我们甚至不能接受 9 亿的目标。 ” 一个对该过程接触密切的高级官员说。但是,另一个人说, “ 结果到了夏天的时候,互联网效应爆炸了。 ” 网上筹集到的资金极大一部分通过一个复杂的、以度量驱动的电邮营销活动而来。在此时,数据收集与分析变得异常重要。很多给支持者的邮件只是测试,它们采用了不同的标题、发送者与讯息内容。在春天时,米歇尔 · 奥巴马的邮件表现得最好,有时,竞选总指挥 Messina 表现得比副总统拜登好。在很多时候,表现最佳的募集人能够得到十倍于其他募集人的资金。 芝加哥总部发现,参与了 “ 快速捐献 ” 计划(该计划允许在网上或者通过短信重复捐钱,而无须重新输入信用卡信息)的人,捐出的资金是其他的捐献者四倍。于是该计划开始被推广,以各种方式加以激励。在 10 月底时,该计划成为竞选团队对支持者传递信息的重要组成部分,第一次捐助的人如果参加该计划的话可以得到一个免费的保险杆贴纸。 预测结果 随后,那些意在打开钱包的戏法接着又用于去拉动选票。分析团队用了四组民调数据,建立了一个关键州的详细图谱。据说,在过去的一个月内,分析团队做了俄亥俄州 29000 人的民调,这是一个巨大的样本,占了该州全部选民的 0.5% ,这可以让团队深入分析特定人口、地区组织在任何给定时间段里的趋势。这是一个巨大的优势:当第一次辩论后民意开始滑落的时候,他们可以去看哪些选民改换了立场,而哪些没有。 正是这个数据库,帮助竞选团队在 10 月份激流涌动的时候明确意识到:大部分俄亥俄州人不是奥巴马的支持者,更像是罗姆尼因为 9 月份的失误而丢掉的支持者。 “ 我们比其他人镇定多了。 ” 一个官员说。民调数据与选民联系人数据每晚都在所有可能想象的场景下被电脑处理、再处理。 “ 我们每天晚上都在运行 66000 次选举。 ” 一个高级官员说,他描述了计算机如何模拟竞选,以推算出奥巴马在每个 “ 摇摆州 ” 的胜算。 “ 每天早上,我们都会得出数据处理结果,告诉我们赢得这些州的机会在哪,从而我们去进行资源分配。 ” 线上, 动员投票的工作首次尝试大规模使用 Facebook ,以达到上门访问者的效果。 在竞选的最后几周里,下载了 App 的人们,会受到一些带有他们在摇摆州朋友的图片的信息。该讯息告诉他们,只要点击一个按钮,程序则会自动向目标选民发出鼓励,推动他们采取恰当的行动,比如登记参选、早点参选或奔赴投票站。竞选团队发现,通过 Facebook 上朋友接受到如此信息的人有五分之一会响应,很大程度上因为这个讯息是来自他们认识的人。 数据也帮助了竞选广告的购买投放。 与其依赖于外部媒体顾问来决定广告应该在哪里出现, Messina 觉得不如将他的购买决策建立在内部大数据库上。 “ 我们可以通过一些真的很复杂的模型,精准定位选民。比如说,迈阿密戴德 35 岁以下的女性选民,如何定位? ” 一个官员说。结果是,竞选团队买了一些非传统类剧集(如《混乱之子》、《行尸走肉》、《 23 号公寓的坏女孩》)之间的广告时间,而回避了跟地方新闻挨着的广告时间。奥巴马团队 2012 年的广告购买比 2008 年高了多少呢?芝加哥方面有一个数字: “ 电视广告效率提高了 14%…… 这确保我们是通过广告在与我们可劝服的选民对话。 ” 那位官员说。 数据同样让团队把候选人送到通常在竞选晚期不会出现的地方。 8 月份时,奥巴马决定到社会化新闻网站 Reddit 去回答问题。许多总统的高级助手们甚至不知道这个网站是干嘛的。 “ 为什么我们要把巴拉克 · 奥巴马放在 Reddit 上 ?” 一个官员问道, “ 因为一大堆我们的动员目标在 Reddit 上。 ” 数据驱动的决策对奥巴马 —— 这位第 44 位总统的续任起到了巨大作用,也是研究 2012 选举中的一个关键元素。它是一个信号 —— 表明华盛顿那些基于直觉与经验决策的竞选人士的优势在急剧下降,取而代之的是数量分析专家与电脑程序员的工作 ,他们可以在大数据中获取洞察。正如一位官员所说 ,“ 决策者们坐在一间密室里,一边抽雪茄,一边说 :‘ 我们总是会在《 60 分钟》节目上投广告。 ’” 的时代已经结束。在政治领域,大数据的时代已经到来。 ”
个人分类:
数据挖掘
|
0
个评论
更多...
京ICP备16021002-2号
京B2-20170662号
京公网安备 11010802022788号
论坛法律顾问:王进律师
知识产权保护声明
免责及隐私声明
GMT+8, 2024-3-19 11:13
积分 0, 距离下一级还需 积分