成功加入购物车

去购物车结算 X
浩子书屋
  • 机器学:.算与应用 编程语言 雷明

机器学:.算与应用 编程语言 雷明

举报

理论讲解透彻深刻。主要机器学算的推导、证明过程完整而且清晰,并介绍了每种算背后的思想,这是市面上目前其他教程所不具有的

  • 版次:    1
  • 装帧:    其他
  • 开本:    其他
  • 字数:    100千字
  • 出版时间: 
  • 版次:  1
  • 装帧:  其他
  • 开本:  其他
  • 字数:  100千字

售价 58.84 6.7折

定价 ¥88.00 

品相 全新品相描述

优惠 满包邮

优惠 满减券
    运费
    本店暂时无法向该地区发货

    延迟发货说明

    时间:
    说明:

    上书时间2021-12-07

    数量
    库存15
    微信扫描下方二维码
    微信扫描打开成功后,点击右上角”...“进行转发

    卖家超过10天未登录

    • 商品详情
    • 店铺评价
    手机购买
    微信扫码访问
    • 商品分类:
      计算机与互联网
      货号:
      xhwx_1201929929
      品相描述:全新
      正版特价新书
      商品描述:
      主编:

      全面系统地讲述了深度学、机器学的主要算,包括有监督学,无监督学,强化学的54种算。对算的思想,推导与证明,实现要点有清晰透彻的阐述对机器学、深度学算在计算机视觉,自然语言处理,语音识别等领域的应用有详细的介绍配有20个实验程序,包含18份源代码,帮助读者正确的掌握算与开源库的使用配有25个讲解视频,对复杂、难以理解的知识点有清晰透彻的讲解

      目录:

      目录
      部分基本概念与数学知识

      章机器学简介3
      1.1机器学是什么3
      1.1.1一个简单的例子3
      1.1.2为什么需要机器学5
      1.2典型应用7
      1.2.1语音识别7
      1.2.2人脸检测8
      1.2.3人机对弈9
      1.2.4机器翻译10
      1.2.5自动驾驶11
      1.3发展历程11
      1.3.1历史成11
      1.3.2当前进展12
      1.4关于本书13
      参文献13

      第2章数学知识15
      2.1微积分和线代数15
      2.1.1导数15
      2.1.2向量与矩阵17
      2.1.3偏导数与梯度19
      2.1.4雅可比矩阵20
      2.1.5hessian矩阵21
      2.1.6泰勒展开22
      2.1.7行列式22
      2.1.8特征值与特征向量23
      2.1.9奇异值分解24
      2.1.10二次型24
      2.1.11向量与矩阵求导24
      2.2优化方25〖1〗〖2〗机器学——、算与应用〖1〗目录2.2.1梯度下降25
      2.2.2牛顿26
      2.2.3坐标下降27
      2.2.4拉格朗乘数28
      2.2.5凸优化28
      2.2.6拉格朗对偶32
      2.2.7kkt条件34
      2.2.8拟牛顿35
      2.2.9面临的问题36
      2.3概率论37
      2.3.1事件与概率37
      2.3.2条件概率37
      2.3.3变量38
      2.3.4数学期望与方差39
      2.3.5向量39
      2.3.6优选似然估计40
      参文献41

      第3章基本概念42
      3.1算分类42
      3.1.1监督信号42
      3.1.2分类问题与回归问题43
      3.1.3判别模型与生成模型45
      3.1.4强化学45
      3.2模型评价指标46
      3.2.1精度与召回率46
      3.2.2roc曲线46
      3.2.3混淆矩阵48
      3.2.4交验证48
      3.3模型选择48
      3.3.1过拟合与欠拟合48
      3.3.2偏差与方差分解49
      3.3.3正则化50
      参文献52

      第二部分主要的机器学算与理论

      第4章贝叶斯分类器55
      4.1贝叶斯决策55
      4.2朴素贝叶斯分类器56
      4.2.1离散型特征56
      4.2.2连续型特征57
      4.3正态贝叶斯分类器57
      4.3.1训练算57
      4.3.2预测算58
      4.4实验程序59
      4.5应用61
      参文献61

      第5章决策树62
      5.1树形决策过程62
      5.2分类与回归树63
      5.3训练算64
      5.3.1递归分裂过程64
      5.3.2寻找佳分裂64
      5.3.3叶子节点值的设定67
      5.3.4属缺失问题67
      5.3.5剪枝算68
      5.3.6训练算的流程69
      5.3.7计算变量的重要70
      5.4实验程序70
      5.5应用71
      参文献71

      第6章k近邻算72
      6.1基本概念72
      6.2预测算72
      6.3距离定义73
      6.3.1常用距离定义74
      6.3.2距离度量学74
      6.4实验程序75
      6.5应用76
      参文献76

      第7章数据降维78
      7.1主成分分析78
      7.1.1数据降维问题78
      7.1.2计算投影矩阵78
      7.1.3向量降维81
      7.1.4向量重构81
      7.2流形学81
      7.2.1局部线嵌入82
      7.2.2拉普拉斯特征映射83
      7.2.3局部保持投影86
      7.2.4等距映射87
      7.2.5近邻嵌入88
      7.2.6t分布近邻嵌入89
      7.3实验程序90
      7.4应用91
      参文献91

      第8章线判别分析92
      8.1用投影进行分类92
      8.2投影矩阵92
      8.2.1一维的情况92
      8.2.2推广到高维94
      8.3实验程序96
      8.4应用96
      参文献97

      第9章人工神经网络98
      9.1多层前馈型神经网络98
      9.1.1神经元98
      9.1.2网络结构99
      9.1.3正向传播算100
      9.2反向传播算101
      9.2.1一个简单的例子101
      9.2.2完整的算105
      9.3实验程序109
      9.4理论解释110
      9.4.1数学质110
      9.4.2与神经系统的关系111
      9.5面临的问题111
      9.5.1梯度消失111
      9.5.2退化111
      9.5.3局部极小值111
      9.5.4鞍点111
      9.6实现细节问题112
      9.6.1输入值与输出值112
      9.6.2网络规模112
      9.6.3激活函数112
      9.6.4损失函数113
      9.6.5权重初始化113
      9.6.6正则化113
      9.6.7学率的设定114
      9.6.8动量项114
      9.7应用114
      参文献115

      0章支持向量机118
      10.1线分类器118
      10.1.1线分类器概述118
      10.1.2分类间隔118
      10.2线可分的问题119
      10.2.1原问题119
      10.2.2对偶问题120
      10.3线不可分的问题123
      10.3.1原问题123
      10.3.2对偶问题123
      10.4核映射与核函数126
      10.5smo算129
      10.5.1求解子问题129
      10.5.2优化变量的选择132
      10.6多分类问题133
      10.7实验程序134
      10.8libsvm简介136
      10.8.1求解算137
      10.8.2库的使用140
      10.9应用142
      参文献143

      1章线模型145
      11.1logistic回归145
      11.1.1种表述145
      11.1.2第二种表述147
      11.1.3l2正则化原问题148
      11.1.4l2正则化对偶问题151
      11.1.5l1正则化原问题152
      11.1.6实验程序154
      11.2线支持向量机156
      11.2.1l2正则化l1loss svc原问题156
      11.2.2l2正则化l2loss svc原问题156
      11.2.3l2正则化svc对偶问题157
      11.2.4l1正则化l2loss svc原问题158
      11.2.5多类线支持向量机158
      11.2.6实验程序160
      11.3liblinear简介160
      11.3.1求解的问题161
      11.3.2库的使用161
      11.4softmax回归162
      11.5应用164
      参文献165

      2章森林166
      12.1集成学166
      12.1.1抽样166
      12.1.2bagging算167
      12.2森林概述167
      12.3训练算167
      12.4变量的重要168
      12.5实验程序169
      12.6应用169
      参文献169

      3章boosting算171
      13.1adaboost算171
      13.1.1强分类器与弱分类器171
      13.1.2训练算172
      13.1.3训练误差分析174
      13.2广义加模型176
      13.3各种adaboost算177
      13.3.1离散型adaboost177
      13.3.2实数型adaboost179
      13.3.3logitboost180
      13.3.4gentle型adaboost181
      13.4实现细节问题182
      13.4.1弱分类器182
      13.4.2弱分类器的数量182
      13.4.3样本权重削减183
      13.5实验程序183
      13.6梯度提升算183
      13.6.1梯度提升框架184
      13.6.2回归问题185
      13.6.3分类问题185
      13.6.4xgboost187
      13.7应用——目标检测189
      13.7.1vj框架的190
      13.7.2模型训练192
      参文献193

      4章深度学概论195
      14.1机器学面临的挑战195
      14.1.1人工特征196
      14.1.2机器学算197
      14.2深度学技术197
      14.3进展与典型应用199
      14.3.1计算机视觉200
      14.3.2语音识别202
      14.3.3自然语言处理202
      14.3.4计算机图形学203
      14.3.5系统203
      14.3.6深度强化学204
      14.4自动编码器204
      14.4.1自动编码器简介204
      14.4.2去噪自动编码器205
      14.4.3稀疏自动编码器205
      14.4.4收缩自动编码器206
      14.4.5多层编码器206
      14.5受限玻尔兹曼机206
      14.5.1玻尔兹曼分布206
      14.5.2受限玻尔兹曼机结构207
      14.5.3训练算209
      14.5.4深度玻尔兹曼机210
      14.5.5深度置信网210
      参文献210

      5章卷积神经网络218
      15.1网络结构218
      15.1.1卷积层219
      15.1.2池化层222
      15.1.3全连接层222
      15.2训练算223
      15.2.1卷积层223
      15.2.2池化层226
      15.2.3梯度下降227
      15.2.4迁移学228
      15.3典型网络228
      15.3.1le5网络228
      15.3.2alex网络229
      15.3.3vgg网络230
      15.3.4google网络231
      15.4理论分析232
      15.4.1反卷积运算232
      15.4.2卷积层可视化233
      15.4.3理论解释235
      15.5挑战与改进措施236
      15.5.1卷积层236
      15.5.2池化层236
      15.5.3激活函数237
      15.5.4损失函数237
      15.5.5网络结构237
      15.5.6批量归一化241
      15.6实现细节242
      15.6.1卷积层242
      15.6.2激活函数244
      15.6.3内积层244
      15.6.4损失层245
      15.6.5求解器248
      15.7应用——计算机视觉251
      15.7.1人脸检测251
      15.7.2通用目标检测254
      15.7.3人脸关键点定位262
      15.7.4人脸识别263
      15.7.5图像分割265
      参文献266

      6章循环神经网络270
      16.1网络结构270
      16.1.1循环层270
      16.1.2输出层271
      16.1.3一个简单的例子272
      16.1.4深层网络272
      16.2网络的训练273
      16.2.1一个简单的例子273
      16.2.2完整的算275
      16.3挑战与改进措施277
      16.3.1梯度消失277
      16.3.2长短期记忆模型278
      16.3.3门控循环单元279
      16.3.4双向网络279
      16.4序列预测问题280
      16.4.1序列标注问题280
      16.4.2连接主义时序分类281
      16.4.3序列到序列学285
      16.5应用——语音识别287
      16.5.1语音识别问题287
      16.5.2gmmhmm框架288
      16.5.3深度模型288
      16.6应用——自然语言处理291
      16.6.1中文分词292
      16.6.2词标注293
      16.6.3命名实体识别293
      16.6.4文本分类294
      16.6.5自动摘要296
      16.6.6机器翻译296
      参文献298

      7章生成对抗网络302
      17.1数据生成302
      17.2生成对抗网络结构303
      17.2.1生成模型303
      17.2.2判别模型304
      17.3模型的训练304
      17.3.1目标函数304
      17.3.2训练算305
      17.3.3理论分析306
      17.4应用与改进307
      17.4.1改进方案308
      17.4.2典型应用311
      参文献313

      8章聚类算314
      18.1问题定义314
      18.2层次聚类315
      18.3基于质心的算315
      18.4基于概率分布的算316
      18.4.1高斯混合模型316
      18.4.2em算317
      18.5基于密度的算322
      18.5.1dbscan算322
      18.5.2optics算324
      18.5.3mean shift算326
      18.6基于图的算328
      18.7算评价指标331
      18.7.1指标331
      18.7.2外部指标331
      18.8实验程序332
      18.9应用332
      参文献332

      9章半监督学334
      19.1问题设334
      19.1.1连续设334
      19.1.2聚类设334
      19.1.3流形设334
      19.1.4低密度分割设334
      19.2启发式算335
      19.2.1自训练335
      19.2.2协同训练335
      19.3生成模型335
      19.4低密度分割336
      19.5基于图的算336
      19.6半监督深度学337
      参文献338

      第20章隐马尔可夫模型340
      20.1马尔可夫模型340
      20.2隐马尔可夫模型简介343
      20.2.1模型结构343
      20.2.2中文分词345
      20.3估值问题345
      20.4解码问题347
      20.5训练算349
      20.6应用352
      参文献352

      第21章条件场353
      21.1马尔可夫场353
      21.1.1概率图模型353
      21.1.2马尔可夫场354
      21.2条件场概述355
      21.2.1条件场简介355
      21.2.2线链条件场355
      21.3推断算357
      21.4训练算359
      21.5应用360
      参文献360

      第22章强化学361
      22.1强化学简介361
      22.1.1问题定义361
      22.1.2马尔可夫决策过程362
      22.2基于动态规划的算366
      22.2.1策略迭代算366
      22.2.2价值迭代算368
      22.3蒙特卡洛算369
      22.3.1算简介369
      22.3.2状态价值函数估计370
      22.3.3动作价值函数估计371
      22.3.4蒙特卡洛控制371
      22.4时序差分学372
      22.4.1sarsa算372
      22.4.2q学373
      22.5深度强化学374
      22.5.1深度q网络375
      22.5.2策略梯度算378
      22.6应用381
      参文献381

      第三部分工程实践问题

      第23章工程实践问题概述385
      23.1实现细节问题385
      23.1.1训练样本385
      23.1.2特征预处理386
      23.1.3模型选择386
      23.1.4过拟合问题386
      23.2安全问题387
      23.2.1对抗样本387
      23.2.2形成原因分析389
      23.3实现成本问题390
      23.3.1训练样本量390
      23.3.2计算与存储成本390
      23.4深度模型优化391
      23.4.1剪枝与编码391
      23.4.2二值化网络392
      23.4.3卷积核分离396
      参文献397

      内容简介:

      机器学是当前解决很多人工智能问题的核心技术,自2012年以来,深度学的出现带来了人工智能复兴。本书是机器学和深度学领域的入门与提高教材,紧密结合工程实践与应用,系统、深入地讲述机器学与深度学的主流方与理论。全书由23章组成,共分为三大部分。~3章为部分,介绍机器学的基本、所需的数学知识(包括微积分、线代数、很优化方和概率论),以及机器学中的核心概念。第4~22章为第二部分,是本书的主体,介绍各种常用的有监督学算、无监督学算、半监督学算和强化学算。对于每种算,从与推导、工程实现和应用3个方面进行介绍,对于大多数算,都配有实验程序。第23章为第三部分,介绍机器学和深度学算实际应用时面临的问题,并给出典型的解决方案。本书理论推导与证明详细、深入,结构清晰,详细地讲述主要算的与细节,让读者不仅知其然,还知其所以然,真正理解算、学会使用算。对于计算机、人工智能及相关专业的本科生和,这是一本适合入门与系统学的教材;对于从事人工智能和机器学产品研发的工程技术人员,本书也具有很强的参价值。

      作者简介:

      致力于研发机器学与深度学、计算机视觉框架,sigai创始人。2009年于清华大学计算机系,获硕士,研究方向为机器学、计算机视觉,发表数篇。曾职于百度公司,任不错软件工程师和项目经理;zmodo/meshare,任cto与台研发中心负责人。在机器学、计算机视觉方向有丰富的学术研究与产品研发经验。

      精彩内容:

          第3章
              基 本 概 念本章介绍机器学中的常用概念,包括算的分类、算的评价指标,以及模型选择问题。按照样本数据是否带有标签值,可以将机器学算分为有监督学与无监督学。按照标签值的类型,可以将有监督学算进一步细分为分类问题与回归问题。按照求解的方,可以将有监督学算分为生成模型与判别模型。
              比较算的优劣需要使用算的评价指标。对于分类问题,常用的评价指标是准确率;对于回归问题,是回归误差。二分类问题由于其特殊,我们为它定义了精度与召回率指标,以及真阳率和阳率,在此基础上可以得到roc曲线。对于多分类问题,常用的评价指标是混淆矩阵。
              泛化能力是衡量有监督学算的核心标准。与模型泛化能力相关的概念有过拟合与欠拟合,对泛化误差进行分解可以得到方差与偏差的概念。正则化技术是解决过拟合问题的一种常见方,本章介绍它的实例――岭回归算。
              3.1算分类
              按照样本数据的特点以及求解手段,机器学算有不同的分类标准。这里介绍有监督学和无监督学、分类问题与回归问题、生成模型与判别模型的概念。强化学是一种特殊的机器学算,它的将在第22章详细介绍。
              3.1.1监督信号
              根据样本数据是否带有标签值(label),可以将机器学算分成有监督学和无监督学两类。要识别26个英文字母图像,我们需要将每张图像和它是哪个字符(即其所属的类别)对应起来,图像的类别是标签值。
              有监督学(supervised learning)的样本数据带有标签值,它从训练样本中学得到一个模型,然后用这个模型对新的样本进行预测推断。样本由输入值与标签值组成: (x,y)其中,x为样本的特征向量,是模型的输入值;y为标签值,是模型的输出值。标签值可以是整数,也可以是实数,还可以是向量。有监督学的目标是给定训练样本集,根据它确定映射函数: y=f(x)确定这个函数的依据是它能够很好地解释训练样本,让函数输出值与样本真实标签值之间的误差很小化,或者让训练样本集的似然函数优选化。训练样本数是有限的,而样本集所有可能的取值在很多情况下是无限集,因此,只能从中选取一部分样本参与训练。整个样本的集合称为样本空间。
              常生活中的很多机器学应用,如垃圾邮件分类、手写文字识别、人脸识别、语音识别等都是有监督学。这类问题需要先收集训练样本,对样本进行标注,用标注好的样本训模型,然后用模型对新的样本进行预测。
              无监督学(unsupervised learning)对没有标签的样本进行分析,发现样本集的结构或者分布规律。无监督学的典型代表是聚类、表示学和数据降维,它们处理的样本都不带有标签值。
              聚类也是分类问题,但没有训练过程。算把一批没有标签的样本划分成多个类,使得在某种相似度指标下每一类中的样本尽量相似,不同类的样本之间尽量不同。聚类算的样本只有输入向量而没有标签值,也没有训练过程。在8章中详细介绍各种典型的聚类算。
              无监督学的另一类典型算是表示学,它从样本中自动学出有用的特征,用于分类和聚类等目的。典型的实现有自动编码器和受限玻尔兹曼机,它们的输入是没有标签值的数据(如图像或语音信号),输出值是提取的特征向量。在4章详细介绍自动编码器和受限玻尔兹曼机的。
              数据降维也是一种无监督学算,它将n维空间中的向量x通过某种映射函数映射到更低维的m维空间中,在这里m?n: y=?(x)通过将数据映射到低维空间,可以更容易地对它们进行分析与显示。如果映射到二维或三维空间,可以直观地将数据可视化。第7章将详细介绍数据降维算。
              对于有些应用问题,标注训练样本的成本很高。如何利用少量有标签样本与大量无标签样本进行学是一个需要解决的问题,一种方是半监督学(semi?supervised learning)。半监督学的训练样本是有标签样本与无标签样本的混合,一般情况下,无标签样本的数量远大于有标签样本数。半监督学的在9章详细讲述。
              〖1〗〖2〗机器学――、算与应用〖1〗第3章基本概念3.1.2分类问题与回归问题
              在有监督学中,如果样本的标签是整数,则预测函数是一个向量到整数的映射: rn→z这称为分类问题。样本的标签是其类别编号,一般从0或者1开始编号。如果类型数为2,则称为二分类问题,类别标签一般设置成+1和-1,分别对应正样本和负样本。例如,如果要判断一张图像是否为人脸,则正样本为人脸,负样本为非人脸。
              对于分类问题,如果预测函数是线函数则称为线模型,它是n维空间的线划分。线函数是超面,在二维面中是直线,在三维空间中是面。二分类问题的线预测函数为sgn(wtx+b)其中,w是权重向量,b是偏置项。线支持向量机、logistic回归等属于线模型,它们的预测函数都是上面这种形式。
              非线模型的决策函数是非线函数,分类边界是n维空间中的曲面。在实际应用中大多数情况下数据是非线的,因此,要求预测函数具有非线建模的能力。使用非线核的支持向量机,人工神经网络、决策树等都属于非线模型。
              在有监督学中,如果标签值是连续实数,则称为回归问题,此时预测函数是向量到实数的映射: rn→r例如,我们根据一个人的学历、工作年限等特征预测他的收入,这是一个回归问题,因为收入是实数值而不是类别标签。
              与分类问题一样,预测函数可以是线函数也可以是非线函数。如果是线函数则称为线回归。
              对于有监督学,机器学算在训练时的任务是给定训练样本集,选择预测函数的类型称为设空间,然后确定函数的参数值,如线模型中的w和b。确定参数的常用方是构造一个损失函数(loss function),它表示预测函数的输出值与样本标签值之间的误差。对所有训练样本的误差求均值,这个值是参数θ的函数: minθl(θ)=1l∑li=1l(;θ)其中,l(;θ)为单个样本的损失函数,l为训练样本数。训练的目标是很小化

      配送说明

      ...

      相似商品

      为你推荐

    孔网啦啦啦啦啦纺织女工火锅店第三课

    开播时间:09月02日 10:30

    即将开播,去预约
    直播中,去观看