请选择 进入手机版 | 继续访问电脑版
楼主: jerker
4214 33

[讨论交流] 《大数据:互联网大规模数据挖掘与分布式处理》 [推广有奖]

学术权威

80%

还不是VIP/贵宾

-

TA的文库  其他...

数据科学(Data Science)

威望
6
论坛币
50724 个
通用积分
3488.6206
学术水平
3272 点
热心指数
3508 点
信用等级
3023 点
经验
406 点
帖子
5811
精华
28
在线时间
3530 小时
注册时间
2009-11-19
最后登录
2024-3-27

初级学术勋章 中级热心勋章 初级热心勋章 初级信用勋章 中级学术勋章 高级学术勋章 特级学术勋章 高级热心勋章 特级热心勋章 中级信用勋章 高级信用勋章 特级信用勋章

jerker 发表于 2015-4-19 00:48:12 |显示全部楼层 |坛友微信交流群
相似文件 换一批

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
QQ截图20150419003743.png

内容介绍:
  《大数据:互联网大规模数据挖掘与分布式处理》由斯坦福大学的“web 挖掘”课程的内容总结而成,主要关注极大规模数据的挖掘。主要内容包括分布式文件系统、相似性搜索、搜索引擎技术、频繁项集挖掘、聚类算法、广告管理及推荐系统。其中相关章节有对应的习题,以巩固所讲解的内容。读者更可以从网上获取相关拓展材料。
   《大数据:互联网大规模数据挖掘与分布式处理》适合本科生、研究生及对数据挖掘感兴趣的读者阅读。
三个分卷都下载才可解压成功。


目录:
第1章 数据挖掘基本概念 1
1.1 数据挖掘的定义 1
1.1.1 统计建模 1
1.1.2 机器学习 1
1.1.3 建模的计算方法 2
1.1.4 数据汇总 2
1.1.5 特征抽取 3
1.2 数据挖掘的统计限制 4
1.2.1 整体情报预警 4
1.2.2 邦弗朗尼原理 4
1.2.3 邦弗朗尼原理的一个例子 5
1.2.4 习题 6
1.3 相关知识 6
1.3.1 词语在文档中的重要性 6
1.3.2 哈希函数 7
1.3.3 索引 8
1.3.4 二级存储器 10
1.3.5 自然对数的底e 10
1.3.6 幂定律 11
.1.3.7 习题 12
1.4 本书概要 13
1.5 小结 14
1.6 参考文献 14
第2章 大规模文件系统及map-reduce 16
2.1 分布式文件系统 16
2.1.1 计算节点的物理结构 17
2.1.2 大规模文件系统的结构 18
2.2 map-reduce 18
2.2.1 map任务 19
2.2.2 分组和聚合 20
2.2.3 reduce任务 20
2.2.4 组合器 21
2.2.5 map-reduce的执行细节 21
2.2.6 节点失效的处理 22
2.3 使用map-reduce的算法 22
2.3.1 基于map-reduce的矩阵—向量乘法实现 23
2.3.2 向量v无法放入内存时的处理 23
2.3.3 关系代数运算 24
2.3.4 基于map-reduce的选择运算 26
2.3.5 基于map-reduce的投影运算 26
2.3.6 基于map-reduce的并、交和差运算 27
2.3.7 基于map-reduce的自然连接运算 27
2.3.8 一般性的连接算法 28
2.3.9 基于map-reduce的分组和聚合运算 28
2.3.10 矩阵乘法 29
2.3.11 基于单步map-reduce的矩阵乘法 29
2.3.12 习题 30
2.4 map-reduce的扩展 31
2.4.1 工作流系统 31
2.4.2 map-reduce的递归扩展版本 32
2.4.3 pregel系统 34
2.4.4 习题 35
2.5 集群计算算法的效率问题 35
2.5.1 集群计算的通信开销模型 35
2.5.2 实耗通信开销 36
2.5.3 多路连接 37
2.5.4 习题 40
2.6 小结 40
2.7 参考文献 42
第3章 相似项发现 44
3.1 近邻搜索的应用 44
3.1.1 集合的jaccard相似度 44
3.1.2 文档的相似度 45
3.1.3 协同过滤——一个集合相似问题 46
3.1.4 习题 47
3.2 文档的shingling 47
3.2.1 k-shingle 47
3.2.2 shingle大小的选择 48
3.2.3 对shingle进行哈希 48
3.2.4 基于词的shingle 49
3.2.5 习题 49
3.3 保持相似度的集合摘要表示 49
3.3.1 集合的矩阵表示 50
3.3.2 最小哈希 50
3.3.3 最小哈希及jaccard相似度 51
3.3.4 最小哈希签名 52
3.3.5 最小哈希签名的计算 52
3.3.6 习题 54
3.4 文档的局部敏感哈希算法 55
3.4.1 面向最小哈希签名的lsh 56
3.4.2 行条化策略的分析 57
3.4.3 上述技术的综合 58
3.4.4 习题 59
3.5 距离测度 59
3.5.1 距离测度的定义 59
3.5.2 欧氏距离 60
3.5.3 jaccard距离 60
3.5.4 余弦距离 61
3.5.5 编辑距离 62
3.5.6 海明距离 63
3.5.7 习题 63
3.6 局部敏感函数理论 64
3.6.1 局部敏感函数 65
3.6.2 面向jaccard距离的局部敏感函数族 66
3.6.3 局部敏感函数族的放大处理 66
3.6.4 习题 68
3.7 面向其他距离测度的lsh函数族 68
3.7.1 面向海明距离的lsh函数族 69
3.7.2 随机超平面和余弦距离 69
3.7.3 梗概 70
3.7.4 面向欧氏距离的lsh函数族 71
3.7.5 面向欧氏空间的更多lsh函数族 72
3.7.6 习题 72
3.8 lsh函数的应用 73
3.8.1 实体关联 73
3.8.2 一个实体关联的例子 74
3.8.3 记录匹配的验证 74
3.8.4 指纹匹配 75
3.8.5 适用于指纹匹配的lsh函数族 76
3.8.6 相似新闻报道检测 77
3.8.7 习题 78
3.9 面向高相似度的方法 79
3.9.1 相等项发现 79
3.9.2 集合的字符串表示方法 79
3.9.3 基于长度的过滤 80
3.9.4 前缀索引 81
3.9.5 位置信息的使用 82
3.9.6 使用位置和长度信息的索引 83
3.9.7 习题 85
3.10 小结 85
3.11 参考文献 87
第4章 数据流挖掘 89
4.1 流数据模型 89
4.1.1 一个数据流管理系统 89
4.1.2 流数据源的例子 90
4.1.3 流查询 91
4.1.4 流处理中的若干问题 92
4.2 流当中的数据抽样 92
4.2.1 一个富于启发性的例子 93
4.2.2 代表性样本的获取 93
4.2.3 一般的抽样问题 94
4.2.4 样本规模的变化 94
4.2.5 习题 95
4.3 流过滤 95
4.3.1 一个例子 95
4.3.2 布隆过滤器 96
4.3.3 布隆过滤方法的分析 96
4.3.4 习题 97
4.4 流中独立元素的数目统计 98
4.4.1 独立元素计数问题 98
4.4.2 fm算法 98
4.4.3 组合估计 99
4.4.4 空间需求 100
4.4.5 习题 100
4.5 矩估计 100
4.5.1 矩定义 100
4.5.2 二阶矩估计的ams算法 101
4.5.3 ams算法有效的原因 102
4.5.4 更高阶矩的估计 103
4.5.5 无限流的处理 103
4.5.6 习题 104
4.6 窗口内的计数问题 105
4.6.1 精确计数的开销 105
4.6.2 dgim算法 105
4.6.3 dgim算法的存储需求 107
4.6.4 dgim算法中的查询应答 107
4.6.5 dgim条件的保持 108
4.6.6 降低错误率 109
4.6.7 窗口内计数问题的扩展 109
4.6.8 习题 110
4.7 衰减窗口 110
4.7.1 最常见元素问题 110
4.7.2 衰减窗口的定义 111
4.7.3 最流行元素的发现 111
4.8 小结 112
4.9 参考文献 113
第5章 链接分析 115
5.1 pagerank 115
5.1.1 早期的搜索引擎及词项作弊 115
5.1.2 pagerank的定义 117
5.1.3 web结构 119
5.1.4 避免终止点 121
5.1.5 采集器陷阱及“抽税”法 123
5.1.6 pagerank在搜索引擎中的使用 125
5.1.7 习题 125
5.2 pagerank的快速计算 126
5.2.1 转移矩阵的表示 127
5.2.2 基于map-reduce的pagerank迭代计算 128
5.2.3 结果向量合并时的组合器使用 128
5.2.4 转移矩阵中块的表示 129
5.2.5 其他高效的pagerank迭代方法 130
5.2.6 习题 131
5.3 面向主题的pagerank 131
5.3.1 动机 131
5.3.2 有偏的随机游走模型 132
5.3.3 面向主题的pagerank的使用 133
5.3.4 基于词汇的主题推断 134
5.3.5 习题 134
5.4 链接作弊 135
5.4.1 垃圾农场的架构 135
5.4.2 垃圾农场的分析 136
5.4.3 与链接作弊的斗争 137
5.4.4 trustrank 137
5.4.5 垃圾质量 137
5.4.6 习题 138
5.5 导航页和权威页 139
5.5.1 hits的直观意义 139
5.5.2 导航度和权威度的形式化 139
5.5.3 习题 142
5.6 小结 143
5.7 参考文献 145
第6章 频繁项集 146
6.1 购物篮模型 146
6.1.1 频繁项集的定义 146
6.1.2 频繁项集的应用 148
6.1.3 关联规则 149
6.1.4 高可信度关联规则的发现 150
6.1.5 习题 151
6.2 购物篮及a-priori算法 152
6.2.1 购物篮数据的表示 152
6.2.2 项集计数中的内存使用 153
6.2.3 项集的单调性 154
6.2.4 二元组计数 155
6.2.5 a-priori算法 155
6.2.6 所有频繁项集上的a-priori算法 157
6.2.7 习题 158
6.3 更大数据集在内存中的处理 159
6.3.1 pcy算法 160
6.3.2 多阶段算法 161
6.3.3 多哈希算法 163
6.3.4 习题 164
6.4 有限扫描算法 166
6.4.1 简单的随机化算法 166
6.4.2 抽样算法中的错误规避 167
6.4.3 son算法 168
6.4.4 son算法和map-reduce 168
6.4.5 toivonen算法 169
6.4.6 toivonen算法的有效性分析 170
6.4.7 习题 170
6.5 流中的频繁项计数 171
6.5.1 流的抽样方法 171
6.5.2 衰减窗口中的频繁项集 172
6.5.3 混合方法 172
6.5.4 习题 173
6.6 小结 173
6.7 参考文献 175
第7章 聚类 176
7.1 聚类技术介绍 176
7.1.1 点、空间和距离 176
7.1.2 聚类策略 177
7.1.3 维数灾难 178
7.1.4 习题 179
7.2 层次聚类 179
7.2.1 欧氏空间下的层次聚类 180
7.2.2 层次聚类算法的效率 183
7.2.3 控制层次聚类的其他规则 183
7.2.4 非欧空间下的层次聚类 185
7.2.5 习题 186
7.3 k-均值算法 187
7.3.1 k-均值算法基本知识 187
7.3.2 k-均值算法的簇初始化 187
7.3.3 选择k的正确值 188
7.3.4 bfr算法 189
7.3.5 bfr算法中的数据处理 191
7.3.6 习题 192
7.4 cure算法 193
7.4.1 cure算法的初始化 194
7.4.2 cure算法的完成 195
7.4.3 习题 195
7.5 非欧空间下的聚类 196
7.5.1 grgpf算法中的簇表示 196
7.5.2 簇表示树的初始化 196
7.5.3 grgpf算法中的点加入 197
7.5.4 簇的分裂及合并 198
7.5.5 习题 199
7.6 流聚类及并行化 199
7.6.1 流计算模型 199
7.6.2 一个流聚类算法 200
7.6.3 桶的初始化 200
7.6.4 桶合并 200
7.6.5 查询应答 202
7.6.6 并行环境下的聚类 202
7.6.7 习题 203
7.7 小结 203
7.8 参考文献 205
第8章 web广告 207
8.1 在线广告相关问题 207
8.1.1 广告机会 207
8.1.2 直投广告 208
8.1.3 展示广告的相关问题 208
8.2 在线算法 209
8.2.1 在线和离线算法 209
8.2.2 贪心算法 210
8.2.3 竞争率 211
8.2.4 习题 211
8.3 广告匹配问题 212
8.3.1 匹配及完美匹配 212
8.3.2 最大匹配贪心算法 213
8.3.3 贪心匹配算法的竞争率 213
8.3.4 习题 214
8.4 adwords问题 214
8.4.1 搜索广告的历史 215
8.4.2 adwords问题的定义 215
8.4.3 adwords问题的贪心方法 216
8.4.4 balance算法 217
8.4.5 balance算法竞争率的一个下界 217
8.4.6 多投标者的balance算法 219
8.4.7 一般性的balance算法 220
8.4.8 adwords问题的最后论述 221
8.4.9 习题 221
8.5 adwords的实现 221
8.5.1 投标和搜索查询的匹配 222
8.5.2 更复杂的匹配问题 222
8.5.3 文档和投标之间的匹配算法 223
8.6 小结 224
8.7 参考文献 226
第9章 推荐系统 227
9.1 一个推荐系统的模型 227
9.1.1 效用矩阵 227
9.1.2 长尾现象 228
9.1.3 推荐系统的应用 230
9.1.4 效用矩阵的填充 230
9.2 基于内容的推荐 231
9.2.1 项模型 231
9.2.2 文档的特征发现 231
9.2.3 基于tag的项特征获取 232
9.2.4 项模型的表示 233
9.2.5 用户模型 234
9.2.6 基于内容的项推荐 235
9.2.7 分类算法 235
9.2.8 习题 237
9.3 协同过滤 238
9.3.1 相似度计算 238
9.3.2 相似度对偶性 241
9.3.3 用户聚类和项聚类 242
9.3.4 习题 243
9.4 降维处理 243
9.4.1 uv分解 244
9.4.2 rmse 244
9.4.3 uv分解的增量式计算 245
9.4.4 对任一元素的优化 247
9.4.5 一个完整uv分解算法的构建 248
9.4.6 习题 250
9.5 netflix竞赛 250
9.6 小结 251
9.7 参考文献 253
索引 254

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:分布式处理 数据挖掘 互联网 大数据 大规模 斯坦福大学 搜索引擎 互联网 计算方法 研究生

已有 1 人评分经验 论坛币 收起 理由
fantuanxiaot + 40 + 39 精彩帖子

总评分: 经验 + 40  论坛币 + 39   查看全部评分

本帖被以下文库推荐

lc1014 发表于 2015-4-19 10:17:33 |显示全部楼层 |坛友微信交流群
谢谢分享

使用道具

auirzxp 学生认证  发表于 2015-4-19 10:22:49 |显示全部楼层 |坛友微信交流群

使用道具

jacksonnee 学生认证  发表于 2015-4-19 11:04:19 |显示全部楼层 |坛友微信交流群
这么好的帖子,赞赞赞!!!

使用道具

jerker 发表于 2015-4-19 11:09:05 |显示全部楼层 |坛友微信交流群
jacksonnee 发表于 2015-4-19 11:04
这么好的帖子,赞赞赞!!!
欢迎兄台常来量化投资(https://bbs.pinggu.org/forum-2166-1.html

使用道具

life_life 发表于 2015-4-19 11:53:53 |显示全部楼层 |坛友微信交流群
自学习 学习   

使用道具

mike68097 发表于 2015-4-19 12:05:38 |显示全部楼层 |坛友微信交流群

使用道具

li_mao 发表于 2015-4-19 12:52:08 |显示全部楼层 |坛友微信交流群
学习下

使用道具

淘猪恭 发表于 2015-4-19 13:52:01 |显示全部楼层 |坛友微信交流群
谢!!!!!!!!!!!!

使用道具

晓七 在职认证  发表于 2015-4-19 16:41:21 |显示全部楼层 |坛友微信交流群

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注jr
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-3-28 16:50