成功加入购物车
[美]罗伯特·夏皮雷、约夫·弗雷德 著; 沙灜 译 / 人民邮电出版社 / 2020-10 / 平装
售价 ¥ 30.00 2.8折
定价 ¥109.00
品相 八品
延迟发货说明
上书时间2025-11-16
卖家超过10天未登录
机器学习提升法理论与算法
本书主要介绍一种机器学习算法――提升法,主要关注其基础理论和算法,也兼顾了应用。
全书共14章,分为4个部分。首先给出机器学习算法及其分析的概要介绍,然后第一部分重点探究了提升法的核心理论及其泛化能力。第二部分主要介绍了有助于理解和解释提升法的其他理论,包括基于博弈论的解释、贪心算法、迭代投射算法,并与信息几何学和凸优化建立了联系。第三部分主要介绍利用基于置信度的弱预测的AdaBoost算法的实用扩展,并用于解决多类别分类问题和排序问题。第四部分讨论了高级理论话题,包括AdaBoost算法、**提升法和连续时间下的提升法之间的统计一致性。附录部分介绍了所需高级的数学概念。
本书适合对提升法感兴趣的读者,本书每章都附有练习,因此也适用于高等院校相关课程的教学。
约夫・弗雷德(Yoav Freund),纽约微软主任研究员。
罗伯特・夏皮雷(Robert. E. Schapire),加利福尼亚大学圣迭戈分校计算机科学与工程系教授。
他们因为在提升法方面的研究工作,获得了2003 年的哥德尔奖和2004 年的ACM Kanellakis 理论与实践奖。
目录第1章 引言11.1 分类问题与机器学习21.2 提升法31.2.1 一个“玩具”例子61.2.2 算法的实验性能91.2.3 一个医学诊断的例子101.3 抗过拟合与间隔理论121.4 基础理论与算法141.5 小结161.6 参考资料161.7 练习16第一部分 算法核心分析第2章 机器学习基础212.1 机器学习直接分析方法212.1.1 学习的充分条件212.1.2 与另外一种算法的比较252.2 通用分析方法262.2.1 一个假设262.2.2 有限假设空间282.2.3 无限假设空间302.2.4 更抽象的公式342.2.5 一致性假设352.2.6 基于压缩的界362.2.7 讨论372.3 提升法研究基础382.3.1 性能的绝对保证 382.3.2 弱可学习与提升法402.3.3 分析提升法的方法 412.4 小结432.5 参考资料432.6 练习44第3章 用AdaBoost最小化训练误差463.1 AdaBoost算法训练误差的界 463.2 弱可学习的充分条件493.3 与切诺夫界的关系523.4 基学习算法的设计和使用533.4.1 使用样本的权重 543.4.2 算法设计553.4.3 在人脸识别中的应用583.5 小结603.6 参考资料613.7 练习61第4章 泛化误差的直接界634.1 基于VC理论的泛化误差的界634.1.1 基本假设634.1.2 AdaBoost分类器的形式与复杂度644.1.3 有限基假设空间664.1.4 无限基分类器空间684.2 基于压缩的界704.2.1 主要思想704.2.2 混合压缩模式714.2.3 应用到AdaBoost724.3 强学习与弱学习的等价性734.4 小结754.5 参考资料754.6 练习75第5章 用间隔理论解释提升法的有效性785.1 间隔作为置信度的度量795.2 泛化误差的基于间隔的分析815.2.1 直观感受815.2.2 有限基假设空间825.2.3 无限基假设空间875.3 基于Rademacher复杂度的分析895.4 提升法对间隔分布的影响935.4.1 AdaBoost间隔的界935.4.2 更积极的间隔最大化955.4.3 弱可学习的充分必要条件975.5 偏差、方差和稳定性985.6 与支持向量机的关系1025.6.1 支持向量机概览1025.6.2 与提升法的比较1055.7 间隔的实际应用1065.7.1 为了获得更高的准确率拒绝低置信度的预测1065.7.2 主动学习1085.8 小结1105.9 参考资料1105.10 练习111第二部分 基本观点第6章 博弈论、在线学习和提升法1176.1 博弈论1176.1.1 随机玩法1186.1.2 序列玩法1196.1.3 极小极大理论1206.2 从重复博弈中学习1216.2.1 学习模型1216.2.2 基本算法1226.2.3 分析1226.2.4 极小极大理论的证明1266.2.5 一个游戏的近似解1276.3 在线预测1286.4 提升法1316.4.1 提升法和极小极大理论1316.4.2 提升法的思想1336.4.3 分析1356.5 应用于“读心术”游戏1366.6 小结1416.7 参考资料1416.8 练习142第7章 损失最小化与Boosting算法的泛化1457.1 AdaBoost的损失函数1467.2 坐标下降法1497.2.1 AdaBoost的泛化1497.2.2 收敛性1507.2.3 其他损失函数1517.3 损失最小化不能解释泛化能力1527.4 泛函梯度下降1547.4.1 另外一种泛化1557.4.2 与坐标下降法的关系1577.4.3 对通用损失函数进行分类和回归1587.5 逻辑斯蒂回归和条件概率1597.5.1 逻辑斯蒂回归1597.5.2 修改AdaBoost用于逻辑斯蒂损失1617.5.3 估计条件概率1647.6 正则化1667.6.1 避免过拟合1667.6.2 提升法与早停之间的关系1697.6.3 与间隔最大化的关联1727.7 应用到数据有限的学习1737.7.1 引入先验知识1737.7.2 半监督学习1777.8 小结1797.9 参考资料1797.10 练习180第8章 提升法、凸优化和信息几何学1848.1 迭代投影算法1848.1.1 类欧几里得1848.1.2 信息论度量1878.1.3 将AdaBoost看作迭代投影算法1888.1.4 非空可行集的条件1928.1.5 用非归一化分布的迭代投影1958.2 证明AdaBoost的收敛性1978.2.1 设置1978.2.2 两个问题合成一个1988.2.3 证明1998.2.4 凸对偶2048.3 与逻辑斯蒂回归的统一2058.4 物种分布建模的应用2078.5 小结2108.6 参考资料2108.7 练习211第三部分 算法扩展第9章 基于置信度的弱预测2199.1 框架2209.2 算法设计的通用方法2229.2.1 一般情况下如何选择αt2229.2.2 二分类预测2239.2.3 有限范围的预测2249.2.4 可弃权的弱假设2259.2.5 将参数αt隐入ht2289.2.6 域分割的弱假设2289.3 学习规则集2319.4 交替决策树2339.5 小结2399.6 参考资料2399.7 练习239第10章 多类别分类问题24310.1 多类别问题的直接扩展24410.2 一对其他归约和多标签分类24810.2.1 多标签分类24910.2.2 汉明损失24910.2.3 与“1泊砦蟆焙偷ケ昵┓掷嗟墓叵25210.3 应用到语义分类问题25310.4 应用输出编码的通用约简25710.4.1 多类别到多标签25710.4.2 更通用的编码26110.5 小结26710.6 参考资料26710.7 练习268第11章 排序27211.1 排序问题的形式化框架27211.2 排序问题的提升法27511.2.1 RankBoost27511.2.2 选择αt和弱学习器的标准27711.2.3 RankBoost和AdaBoost的损失函数27811.3 提高效率的方法28011.3.1 约简为二分类问题28011.3.2 层级反馈28211.3.3 准层级反馈28411.4 多类别、多标签分类28811.5 应用29011.5.1 解析英文句子29011.5.2 找到癌症基因29211.6 小结29411.7 参考资料29411.8 练习295第四部分高级理论第12章达到尽可能高的准确度30112.1 最优分类与风险最小化30212.2 接近最优风险30512.2.1 基假设的表达30612.2.2 证明概览30612.2.3 正式的证明30812.2.4 AdaBoost最小化经验风险的速度的界31012.2.5 夹紧效果的界31512.2.6 经验风险和真实风险之间的关系31512.2.7 完成证明31812.2.8 与基于间隔的界的对比31812.3 风险最小化如何导致较差的准确性31912.3.1 构建基于置信度的假设31912.3.2 用二分类器进行构建32212.3.3 均匀噪声的困难32412.4 小结32612.5 参考资料32612.6 练习327第13章 效率最优的提升法33213.1 BBM算法33313.1.1 投票博弈33313.1.2 一个筹码游戏33513.1.3 推导最优博弈33613.1.4 一个容易处理的近似33713.1.5 算法34113.1.6 分析34313.1.7 博弈论优化34413.2 最优泛化误差34513.2.1 BBM的上界34613.2.2 通用下界34613.2.3 构建34713.2.4 分析概述35213.2.5 将提升器看作固定的函数35313.2.6 误差的分析35513.2.7 将所有东西结合到一起35813.3 与AdaBoost的关系35913.3.1 误差界的比较35913.3.2 由BBM派生出AdaBoost36013.3.3 权重的比较36113.4 小结36313.5 参考资料36313.6 练习363第14章 连续时间下的提升法36714.1 连续时间极限下的适应性36714.1.1 主要思想36814.1.2 连续时间下的极限36914.1.3 另一个推导过程37214.2 BrownBoost37514.2.1 算法37514.2.2 分析37714.3 AdaBoost作为BrownBoost的一个特例38114.4 含噪声的数据的实验38714.5 小结38914.6 参考资料38914.7 练习390附录A 符号、定义及其数学背景393A.1 通用符号393A.2 范式394A.3 最大值、最小值、上确界、下确界394A.4 极限395A.5 连续性、闭集和紧性396A.6 导数、梯度和泰勒定理397A.7 凸集398A.8 拉格朗日乘子法398A.9 分布和中心极限定理399
展开全部
配送说明
...
相似商品
为你推荐
开播时间:09月02日 10:30