楼主: 0355lihao
11582 47

[Springer经典]Principles and Theory for Data Mining and Machine Learning [推广有奖]

  • 0关注
  • 1粉丝

硕士生

57%

还不是VIP/贵宾

-

威望
0
论坛币
10919 个
通用积分
2.2870
学术水平
17 点
热心指数
16 点
信用等级
10 点
经验
2632 点
帖子
82
精华
1
在线时间
86 小时
注册时间
2006-3-17
最后登录
2021-1-8

相似文件 换一批

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
Springer经典:Principles and Theory for Data Mining and Machine Learning
(谨作为学习使用,若为他用,后果自负!)


Hardcover: 786 pages Publisher: Springer; 1 edition (July 30, 2009) Language: English ISBN-10: 0387981349 ISBN-13: 978-0387981345
Amazon:http://www.amazon.com/Principles-Machine-Learning-Springer-Statistics/dp/0387981349/ref=sr_1_1?ie=UTF8&s=books&qid=1250838833&sr=1-1

Preface . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . v
1 Variability, Information, and Prediction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.0.1 The Curse of Dimensionality . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.0.2 The Two Extremes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1 Perspectives on the Curse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Sparsity . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.2 Exploding Numbers of Models . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.3 Multicollinearity and Concurvity . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.4 The Effect of Noise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2 Coping with the Curse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.1 Selecting Design Points . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.2 Local Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.3 Parsimony . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3 Two Techniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.1 The Bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.2 Cross-Validation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.4 Optimization and Search . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.4.1 Univariate Search . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.4.2 Multivariate Search . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.4.3 General Searches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.4.4 Constraint Satisfaction and Combinatorial Search . . . . . . . . . . . 35
1.5 Notes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.5.1 Hammersley Points . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.5.2 Edgeworth Expansions for the Mean . . . . . . . . . . . . . . . . . . . . . . 39
1.5.3 Bootstrap Asymptotics for the Studentized Mean . . . . . . . . . . . . 41
1.6 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2 Local Smoothers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.1 Early Smoothers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.2 Transition to Classical Smoothers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.2.1 Global Versus Local Approximations . . . . . . . . . . . . . . . . . . . . . 60
2.2.2 LOESS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.3 Kernel Smoothers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.3.1 Statistical Function Approximation . . . . . . . . . . . . . . . . . . . . . . . 68
2.3.2 The Concept of Kernel Methods and the Discrete Case . . . . . . . 73
2.3.3 Kernels and Stochastic Designs: Density Estimation . . . . . . . . . 78
2.3.4 Stochastic Designs: Asymptotics for Kernel Smoothers . . . . . . 81
2.3.5 Convergence Theorems and Rates for Kernel Smoothers . . . . . 86
2.3.6 Kernel and Bandwidth Selection . . . . . . . . . . . . . . . . . . . . . . . . . . 90
2.3.7 Linear Smoothers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
2.4 Nearest Neighbors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
2.5 Applications of Kernel Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
2.5.1 A Simulated Example . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
2.5.2 Ethanol Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
2.6 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
3 Spline Smoothing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
3.1 Interpolating Splines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
3.2 Natural Cubic Splines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
3.3 Smoothing Splines for Regression. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
3.3.1 Model Selection for Spline Smoothing . . . . . . . . . . . . . . . . . . . . 129
3.3.2 Spline SmoothingMeets Kernel Smoothing . . . . . . . . . . . . . . . . 130
3.4 Asymptotic Bias, Variance, and MISE for Spline Smoothers . . . . . . . . . 131
3.4.1 Ethanol Data Example – Continued . . . . . . . . . . . . . . . . . . . . . . . 133
3.5 Splines Redux: Hilbert Space Formulation . . . . . . . . . . . . . . . . . . . . . . . . 136
3.5.1 Reproducing Kernels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
3.5.2 Constructing an RKHS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
3.5.3 Direct Sum Construction for Splines . . . . . . . . . . . . . . . . . . . . . . 146。。。。。。

推荐我发的的另外两本书:
1、Data Preparation for Data Mining [并非Using SAS]    By Dorian Pyle  (the Morgan Kaufmann Series in Data Management Systems)
详细网页:http://www.pinggu.org/bbs/viewthread.php?tid=529909&page=1&from^^uid=130869

2、Introduction to Data Mining and its Applications by S. Sumathi
详细网页:http://www.pinggu.org/bbs/viewthread.php?tid=529918&page=1&from^^uid=130869
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:Data Mining Principles principle Springer Learning 下载 分享 Springer

principles_and_theory.rar

8.08 MB

需要: 1 个论坛币  [购买]

本附件包括:

  • SSS-Principles and Theory for Data Mining and Machine Learning-20090721.pdf

本帖被以下文库推荐

沙发
marianne_fff 发表于 2009-8-21 15:46:25 |只看作者 |坛友微信交流群
好贵。。。。。
而且,是英文的吗?有中文版吗。。。

使用道具

藤椅
0355lihao 发表于 2009-8-21 15:54:28 |只看作者 |坛友微信交流群
没有,没有人翻译吧

使用道具

板凳
vucan 发表于 2009-8-21 16:21:47 |只看作者 |坛友微信交流群
这种东西要到有中文版
还需要时间啊
将就看英文吧

使用道具

报纸
yjwang05 发表于 2009-8-21 20:45:15 |只看作者 |坛友微信交流群
thanks for sharing this book
面向大海,春暖花开

使用道具

地板
爱萌 发表于 2009-8-21 22:43:14 |只看作者 |坛友微信交流群
idiosyncrasy of the book is good for us
最恨对我说谎或欺骗我的人

使用道具

7
likrain 发表于 2009-8-21 22:47:02 |只看作者 |坛友微信交流群
还不错,呵呵

使用道具

8
huijijiyi 发表于 2009-8-21 23:22:44 |只看作者 |坛友微信交流群
楼主,好书,收下了!

使用道具

9
prince_czh 发表于 2009-8-21 23:52:16 |只看作者 |坛友微信交流群
好东西 收藏了

使用道具

taiguile, youianzaikanba!

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-4-25 17:02