| 所在主题: | |
| 文件名: 290038.pdf | |
| 资料下载链接地址: https://bbs.pinggu.org/a-290038.html | |
| 附件大小: | |
|
<p></p><p>作者】(美)瓦普尼克 [同作者作品] <br/>【译者】 张学工[同译者作品] <br/>【出 版 社】 清华大学出版社 【书 号】 730203964X <br/>【出版日期】 2004 年6月 【开 本】 16 【页 码】 226 【版 次】1-1 <br/><br/>【内容简介】<br/>统计学习理论是针对小样本情况研究统计学习规律的理论,是传统统计学的重要发展和补充,为研究有限样本情况下机器学习的理论和方法提供了理论框架,其核心思想是通过控制学习机器的容量实现对推广能力的控制。在这一理论中发展出的支持向量机方法是一种新的通用学习机器,较以往方法表现出很多理论和实践上的优势。本书是该领域的权威著作,着重介绍了统计学习理论和支持向量机的关键思想、结论和方法,以及该领域的最新进展。本书的读者对象是在信息科学领域或数学领域从事有关机器学习和函数估计研究的学者和科技人员,也可作为模式识别、信息处理、人工智能、统计学等专业的研究生教材。<br/>译序<br/>第二版前言<br/>第一版前言<br/>0 引论:学习问题研究的四个阶段<br/>0. 1 Rosenblatt的感知器 60年代<br/>0. 1. 1 感知器模型<br/>0. 1. 2 对学习过程分析的开始<br/>0. 1. 3 对学习过程的应用分析与理论分析<br/>0. 2 学习理论基础的创立 60-70年代<br/>0. 2. 1 经验风险最小化原则的理论<br/>0. 2. 2 解决不适定问题的理论<br/>0. 2. 3 密度估计的非参数方法<br/>0. 2. 4 算法复杂度的思想<br/>0. 3 神经网络 80年代<br/>0. 3. 1 神经网络的思想<br/>0. 3. 2 理论分析目标的简化<br/>0. 4 回到起点 90年代<br/>第一章 学习问题的表示<br/>1. 1 函数估计模型<br/>1. 2 风险最小化问题<br/>1. 3 三种主要的学习问题<br/>1. 3. 1 模式识别<br/>1. 3. 2 回归估计<br/>1. 3. 3 密度估计 Fisher-Wald表示<br/>1. 4 学习问题的一般表示<br/>1. 5 经验风险最小化归纳原则<br/>1. 6 学习理论的四个部分非正式推导和评述--1<br/>1. 7 解决学习问题的传统模式<br/>1. 7. 1 密度估计问题 最大似然方法<br/>1. 7. 2 模式识别 判别分析 问题<br/>1. 7. 3 回归估计模型<br/>1. 7. 4 最大似然法的局限<br/>1. 8 密度估计的非参数方法<br/>1. 8. 1 Parzen窗<br/>1. 8. 2 密度估计的问题是不适定的<br/>1. 9 用有限数量信息解决问题的基本原则<br/>1. 10 基于经验数据的风险最小化模型<br/>1. 10. 1 模式识别<br/>1. 10. 2 回归估计<br/>1. 10. 3 密度估计<br/>1. 11 随机逼近推理<br/>第二章 学习过程的一致性<br/>2. 1 传统的一致性定义和非平凡一致性概念<br/>2. 2 学习理论的关键定理<br/>2. 3 一致双边收敛的充分必要条件<br/>2. 3. 1 关于大数定律及其推广<br/>2. 3. 2 指示函数集的熵<br/>2. 3. 3 实函数集的熵<br/>2. 3. 4 一致双边收敛的条件<br/>2. 4 一致单边收敛的充分必要条件<br/>2. 5 不可证伪性理论<br/>2. 6 关于不可证伪性的定理<br/>2. 6. 1 完全 Popper 不可证伪的情况<br/>2. 6. 2 关于部分不可证伪的定理<br/>2. 6. 3 关于潜在不可证伪的定理<br/>2. 7 学习理论的三个里程碑非正式推导和评述--2<br/>2. 8 概率论和统计学的基本问题<br/>2. 9 估计概率测度的两种方式<br/>2. 10 概率测度的强方式估计与密度估计问题<br/>2. 11 Glivenko-Cantelli定理及其推广<br/>2. 12 归纳的数学理论<br/>第三章 学习过程收敛速度的界<br/>3. 1 基本不等式<br/>3. 2 对实函数集的推广<br/>3. 3 主要的与分布无关的界<br/>3. 4 学习机器推广能力的界<br/>3. 5 生长函数的结构<br/>3. 6 函数集的VC维<br/>3. 7 构造性的与分布无关的界<br/>3. 8 构造严格的 依赖于分布的 界的问题非正式推导和评述--3<br/>3. 9 Kolmogorov-Smirnov分布<br/>3. 10 在常数上的竞赛<br/>3. 11 经验过程的界<br/>第四章 控制学习过程的推广能力<br/>4. 1 结构风险最小化归纳原则<br/>4. 2 收敛速度的渐近分析<br/>4. 3 学习理论中的函数逼近问题<br/>4. 4 神经网络的子集结构举例<br/>4. 5 局部函数估计的问题<br/>4. 6 最小描述长度与SRM原则<br/>4. 6. 1 MDL原则<br/>4. 6. 2 对于MDL原则的界<br/>4. 6. 3 SRM和MDL原则<br/>4. 6. 4 MDL原则的一个弱点非正式推导和评述--4<br/>4. 7 解决不适定问题的方法<br/>4. 8 随机不适定问题和密度估计问题<br/>4. 9 回归的多项式逼近问题<br/>4. 10 容量控制的问题<br/>4. 10. 1 选择多项式的阶数<br/>4. 10. 2 选择最优的稀疏代数多项式<br/>4. 10. 3 三角多项式集合上的结构<br/>4. 10. 4 特征选择的问题<br/>4. 11 容量控制的问题与贝叶斯推理<br/>4. 11. 1 学习理论中的贝叶斯方法<br/>4. 11. 2 贝叶斯方法与容量控制方法的讨论<br/>第五章 模式识别的方法<br/>5. 1 为什么学习机器能够推广<br/>5. 2 指示函数的sigmoid逼近<br/>5. 3 神经网络<br/>5. 3. 1 后向传播方法<br/>5. 3. 2 后向传播算法<br/>5. 3. 3 用于回归估计问题的神经网络<br/>5. 3. 4 关于后向传播方法的讨论<br/>5. 4 最优分类超平面<br/>5. 4. 1 最优超平面<br/>5. 4. 2 △-间隔分类超平面<br/>5. 5 构造最优超平面<br/>5. 6 支持向量机<br/>5. 6. 1 高维空间中的推广<br/>5. 6. 2 内积的回旋<br/>5. 6. 3 构造SV机<br/>5. 6. 4 SV机的例子<br/>5. 7 SV机的实验<br/>5. 7. 1 平面上的实验<br/>5. 7. 2 手写数字识别<br/>5. 7. 3 一些重要的细节<br/>5. 8 关于SV机的讨论<br/>5. 9 SVM与Logistic回归<br/>5. 9. 1 Logistic回归<br/>5. 9. 2 SVM的风险函数<br/>5. 9. 3 Logistic回归的SVM逼近<br/>5. 10 SVM的组合<br/>5. 10. 1 AdaBoost方法<br/>5. 10. 2 SVM的组合非正式推导和评述--5<br/>5. 11 工程技巧与正式的推理<br/>5. 12 统计模型的高明所在<br/>5. 13 从数字识别实验中我们学到了什么<br/>5. 13. 1 结构类型与容量控制精度的影响<br/>5. 13. 2 SRM原则和特征构造问题<br/>5. 13. 3 支持向量集合是否是数据的一个鲁棒的特性<br/>第六章<br/>函数估计的方法<br/>6. 1 不敏感损失函数<br/>6. 2 用于回归函数估计的SVM<br/>6. 2. 1 采用回旋内积的SV机<br/>6. 2. 2 对非线性损失函数的解<br/>6. 2. 3 线性优化方法<br/>6. 3 构造估计实值函数的核<br/>6. 3. 1 生成正交多项式展开的核<br/>6. 3. 2 构造多维核<br/>6. 4 生成样条的核<br/>6. 4. 1 d阶有限结点的样条<br/>6. 4. 2 生成有无穷多结点的样条的核<br/>6. 5 生成傅里叶展开的核<br/>6. 6 用于函数逼近和回归估计的支持向量ANOVA分解 SVAD<br/>6. 7 求解线性算子方程的SVM<br/>6. 8 用SVM进行函数逼近<br/>6. 9 用于回归估计的SVM<br/>6. 9. 1 数据平滑的问题<br/>6. 9. 2 线性回归函数估计<br/>6. 9. 3 非线性回归函数估计非正式推导和评述--6<br/>6. 10 回归估计问题中的损失函数<br/>6. 11 鲁棒估计的损失函数<br/>6. 12 支持向量回归机器<br/>第七章 <u><strong><font color="#ff0000">统计学习</font></strong></u>理论中的直接方法<br/>7. 1 密度. 条件概率和条件密度的估计问题<br/>7. 1. 1 密度估计的问题:直接表示<br/>7. 1. 2 条件概率估计问题<br/>7. 1. 3 条件密度估计问题<br/>7. 2 求解近似确定的积分方程的问题<br/>7. 3 Glivenko-Cantelli定理<br/>7. 4 不适定问题<br/>7. 5 解决不适定问题的三种方法<br/>7. 6 不适定问题理论的主要论断<br/>7. 6. 1 确定性不适定问题<br/>7. 6. 2 随机不适定问题<br/>7. 7 密度估计的非参数方法<br/>7. 7. 1 密度估计问题解的一致性<br/>7. 7. 2 Parzen估计<br/>7. 8 密度估计问题的SVM解<br/>7. 8. 1 SVM密度估计方法:总结<br/>7. 8. 2 Parzen和SVM方法的比较<br/>7. 9 条件概率估计<br/>7. 9. 1 近似定义的算子<br/>7. 9. 2 条件概率估计的SVM方法<br/>7. 9. 3 SVM条件概率估计:总结<br/>7. 10 条件密度和回归的估计<br/>7. 11 评注<br/>7. 11. 1 评注1. 我们可以利用未知密度的一个好估计<br/>7. 11. 2 评注2. 我们可以利用有标号的 训练 数据, 也可以利用无标号的 测试 数据<br/>7. 11. 3 评注3. 得到不适定问题的稀疏解的方法非正式推导和评述--7<br/>7. 12 科学理论的三个要素<br/>7. 12. 1 密度估计的问题<br/>7. 12. 2 不适定问题的理论<br/>7. 13 随机不适定问题<br/>第八章 邻域风险最小化原则与SVM<br/>8. 1 邻域风险最小化原则<br/>8. 1. 1 硬邻域函数<br/>8. 1. 2 软邻域函数<br/>8. 2 用于模式识别问题的VRM方法<br/>8. 3 邻域核的例子<br/>8. 3. 1 硬邻域函数<br/>8. 3. 2 软邻域函数<br/>8. 4 非对称邻域<br/>8. 5 对于估计实值函数的推广<br/>8. 6 密度和条件密度估计<br/>8. 6. 1 估计密度函数<br/>8. 6. 2 估计条件概率函数<br/>8. 6. 3 估计条件密度函数<br/>8. 6. 4 估计回归函数非正式推导和评述--8<br/>第九章 结论:什么是学习理论中重要的<br/>9. 1 在问题的表示中什么是重要的<br/>9. 2 在学习过程一致性理论中什么是重要的<br/>9. 3 在界的理论中什么是重要的<br/>9. 4 在控制学习机器推广能力的理论中什么是重要的<br/>9. 5 在构造学习算法的理论中什么是重要的<br/>9. 6 什么是最重要的<br/>参考文献及评述<br/>对参考文献的评述<br/>参考文献<br/>索引<br/></p>
|
|
熟悉论坛请点击新手指南
|
|
| 下载说明 | |
|
1、论坛支持迅雷和网际快车等p2p多线程软件下载,请在上面选择下载通道单击右健下载即可。 2、论坛会定期自动批量更新下载地址,所以请不要浪费时间盗链论坛资源,盗链地址会很快失效。 3、本站为非盈利性质的学术交流网站,鼓励和保护原创作品,拒绝未经版权人许可的上传行为。本站如接到版权人发出的合格侵权通知,将积极的采取必要措施;同时,本站也将在技术手段和能力范围内,履行版权保护的注意义务。 (如有侵权,欢迎举报) |
|
京ICP备16021002号-2 京B2-20170662号
京公网安备 11010802022788号
论坛法律顾问:王进律师
知识产权保护声明
免责及隐私声明