成功加入购物车

去购物车结算 X
倒爷图书专营店
  • 自然语言处理:基于机器学习视角 9787111742234
  • 自然语言处理:基于机器学习视角 9787111742234
  • 自然语言处理:基于机器学习视角 9787111742234
  • 自然语言处理:基于机器学习视角 9787111742234

自然语言处理:基于机器学习视角 9787111742234

举报

全新正版 可开票 支持7天无理由,不清楚的请咨询客服。

  • 作者: 
  • 出版社:    机械工业
  • ISBN:    9787111742234
  • 出版时间: 
  • 装帧:    其他
  • 开本:    其他
  • 作者: 
  • 出版社:  机械工业
  • ISBN:  9787111742234
  • 出版时间: 
  • 装帧:  其他
  • 开本:  其他

售价 102.10 7.3折

定价 ¥139.00 

品相 全新

优惠 满包邮

优惠 满减券
    运费
    本店暂时无法向该地区发货

    延迟发货说明

    时间:
    说明:

    上书时间2024-04-06

    数量
    库存5
    微信扫描下方二维码
    微信扫描打开成功后,点击右上角”...“进行转发

    卖家超过10天未登录

    • 商品详情
    • 店铺评价
    手机购买
    微信扫码访问
    • 货号:
      32030944
      商品描述:
      作者简介
      张 岳西湖大学教授。主要研究领域为自然语言处理、文本挖掘及相关的机器学习方法。研究成果包括机器学习引导搜索的结构预测算法、多任务联合模型、文本表示和图神经网络、自然语言处理中的常识、逻辑推理以及泛化问题,因果机制引导的自然语言处理等。担任国内外顶级会议CCL2020、EMNLP2022程序委员会共同主席。担任TransactionsforACL期刊执行编辑,以及四个Transaction期刊副主编。获多个国际会议最佳论文奖。
      滕志扬2011年本科毕业于东北大学,2014年硕士毕业于中国科学院大学,2018年博士毕业于新加坡科技与设计大学(SUTD),专业方向是自然语言处理和机器学习。他于2018-2022年在西湖大学担任助理研究员。2022-2023年,在新加坡南洋理工大学计算机科学与工程学院的S-lab高级智能实验室曾先后担任研究员和研究型助理教授。在自然语言处理领域的国际和国内顶级会议及期刊上共发表论文30多篇,并在2014年的CCL/NABD会议上获得最佳论文奖。此外,还曾在EMNLP2021、AACL-IJCNLP2022和EMNLP2022担任领域主席。

      目录
      目录
      中文版序
      译者序
      前言
      符号表
      第一部分 基础知识
      第1章 绪论 2
      1.1 自然语言处理的概念 2
      1.2 自然语言处理任务 3
      1.2.1 基础任务 4
      1.2.2 信息抽取任务 12
      1.2.3 应用 16
      1.2.4 小结 18
      1.3 机器学习视角下的自然语言
      处理任务 18
      总结 19
      注释 19
      习题 19
      参考文献 21
      第2章 相对频率 35
      2.1 概率建模 35
      2.1.1 最大似然估计 35
      2.1.2 词概率建模 36
      2.1.3 模型与概率分布 37
      2.2 n元语言模型 41
      2.2.1 一元语言模型 41
      2.2.2 二元语言模型 43
      2.2.3 三元及高阶语言模型 46
      2.2.4 生成式模型 48
      2.3 朴素贝叶斯文本分类器 49
      2.3.1 朴素贝叶斯文本分类 50
      2.3.2 文本分类器的评估 52
      2.3.3 边缘概率的计算 53
      2.3.4 特征 53
      总结 54
      注释 54
      习题 54
      参考文献 56
      第3章 特征向量 57
      3.1 文本在向量空间中的表示 57
      3.1.1 聚类 59
      3.1.2 k均值聚类 61
      3.1.3 分类 62
      3.1.4 支持向量机 63
      3.1.5 感知机 65
      3.2 多分类 66
      3.2.1 定义基于输出的特征 67
      3.2.2 多分类支持向量机 68
      3.2.3 多分类感知机 69
      3.3 线性判别式模型 70
      3.3.1 判别式模型及其特征 70
      3.3.2 线性模型的点积形式 72
      3.4 向量空间与模型训练 72
      3.4.1 可分性与泛化性 72
      3.4.2 处理非线性可分数据 73
      总结 74
      注释 74
      习题 74
      参考文献 76
      第4章 判别式线性分类器  78
      4.1 对数线性模型 78
      4.1.1 二分类对数线性模型的训练 79
      4.1.2 多分类对数线性模型的训练 83
      4.1.3 利用对数线性模型进行分类 85
      4.2 基于随机梯度下降法训练支持向量机 85
      4.2.1 二分类支持向量机的训练 86
      4.2.2 多分类支持向量机的训练 87
      4.2.3 感知机训练的目标函数 88
      4.3 广义线性模型 88
      4.3.1 统一在线训练 89
      4.3.2 损失函数 89
      4.3.3 正则化 92
      4.4 模型融合 92
      4.4.1 模型性能比较 92
      4.4.2 模型集成 93
      4.4.3 半监督学习 95
      总结 96
      注释 96
      习题 97
      参考文献 99
      第5章 信息论观点 101
      5.1 最大熵原理 101
      5.1.1 朴素最大熵模型 103
      5.1.2 条件熵 104
      5.1.3 最大熵模型与训练数据 105
      5.2 KL散度与交叉熵 108
      5.2.1 交叉熵和最大似然估计 109
      5.2.2 模型困惑度 110
      5.3 互信息 111
      5.3.1 点互信息 112
      5.3.2 基于点互信息的文本挖掘 113
      5.3.3 基于点互信息的特征选取 115
      5.3.4 词的点互信息与向量表示 115
      总结 117
      注释 117
      习题 117
      参考文献 120
      第6章 隐变量 121
      6.1 期望最大算法 121
      6.1.1 k均值算法 123
      6.1.2 期望最大算法介绍 125
      6.2 基于期望最大算法的隐变量模型 127
      6.2.1 无监督朴素贝叶斯模型 127
      6.2.2 IBM模型1 130
      6.2.3 概率潜在语义分析 136
      6.2.4 生成模型的相对优势 138
      6.3 期望最大算法的理论基础 138
      6.3.1 期望最大与KL散度 139
      6.3.2 基于数值优化的期
      望最大算法推导 140
      总结 141
      注释 142
      习题 142
      参考文献 144
      第二部分 结构研究
      第7章 生成式序列标注任务 146
      7.1 序列标注 146
      7.2 隐马尔可夫模型 147
      7.2.1 隐马尔可夫模型的训练 149
      7.2.2 解码 149
      7.3 计算边缘概率 153
      7.3.1 前向算法 154
      7.3.2 后向算法 154
      7.3.3 前向-后向算法 156
      7.3.4 二阶隐马尔可夫模型的前向-后向算法 156
      7.4 基于期望最大算法的无监督隐马尔可夫模型训练 158
      总结 164
      注释 164
      习题 165
      参考文献 166
      第8章 判别式序列标注任务 168
      8.1 局部训练的判别式序列标注模型 168
      8.2 标注偏置问题 171
      8.3 条件随机场 172
      8.3.1 全局特征向量 173
      8.3.2 解码 174
      8.3.3 边缘概率计算 175
      8.3.4 训练 178
      8.4 结构化感知机 181
      8.5 结构化支持向量机 184
      总结 186
      注释 186
      习题 186
      参考文献 188
      第9章 序列分割 189
      9.1 基于序列标注的序列分割任务 189
      9.1.1 面向分词的序列标注特征 190
      9.1.2 面向句法组块分析的序列标注特征 192
      9.1.3 面向命名实体识别的序列标注特征 192
      9.1.4 序列分割输出的评价方式 193
      9.2 面向序列分割的判别式模型 193
      9.2.1 分词中的词级别特征 194
      9.2.2 基于动态规划的精确搜索解码 195
      9.2.3 半马尔可夫条件随机场 197
      9.2.4 最大间隔模型 202
      9.3 结构化感知机与柱搜索 203
      9.3.1 放宽特征局部约束 204
      9.3.2 柱搜索解码 205
      总结 207
      注释 207
      习题 207
      参考文献 208
      第10章 树结构预测 210
      10.1 生成式成分句法分析 210
      10.1.1 概率上下文无关文法 212
      10.1.2 CKY解码 213
      10.1.3 成分句法解析器的性能评估 215
      10.1.4 边缘概率的计算 215
      10.2 成分句法分析的特征 218
      10.2.1 词汇化概率上下文无关文法 218
      10.2.2 判别式成分句法分析模型 221
      10.2.3 面向成分句法分析的对数线性模型 222
      10.2.4 面向成分句法分析的最大间隔模型 225
      10.3 重排序 225
      10.4 序列和树结构总结及展望 228
      总结 228
      注释 228
      习题 229
      参考文献 230
      第11章 基于转移的结构预测模型 233
      11.1 基于转移的结构化预测 233
      11.1.1 贪心式局部模型 235
      11.1.2 结构化全局模型 236
      11.2 基于转移的成分句法分析 239
      11.2.1 移进归约成分句法分析 239
      11.2.2 特征模板 241
      11.3 基于转移的依存句法分析 242
      11.3.1 标准弧转移依存句法分析 243
      11.3.2 依存句法解析器的评价方法 245
      11.3.3 贪心弧转移依存句法分析 245
      11.3.4 基于SWAP动作的非投影树解析 246
      11.4 句法分析联合模型 247
      11.4.1 分词、词性标注与依存句法分析联合模型 248
      11.4.2 讨论 250
      总结 251
      注释 251
      习题 251
      参考文献 252
      第12章 贝叶斯网络 254
      12.1 通用概率模型 254
      12.2 贝叶斯网络的训练 257
      12.2.1 最大似然估计 258
      12.2.2 最大后验估计 259
      12.2.3 共轭先验 261
      12.2.4 贝叶斯估计 263
      12.2.5 贝叶斯一元语言模型 265
      12.3 推理 266
      12.3.1 精确推理 266
      12.3.2 吉布斯采样 267
      12.4 潜在狄利克雷分配 269
      12.4.1 带有隐变量的训练过程 271
      12.4.2 潜在狄利克雷分配模型的应用 274
      12.4.3 主题评价 275
      12.5 贝叶斯IBM模型1 276
      总结 276
      注释 277
      习题 277
      参考文献 278
      第三部分 深度学习
      第13章 神经网络 282
      13.1 从单层网络到多层网络 282
      13.1.1 面向文本分类任务的多层感知机 284
      13.1.2 多层感知机的训练 287
      13.2 构建不依赖人工特征的文本分类器 292
      13.2.1 词嵌入 293
      13.2.2 序列编码层 293
      13.2.3 输出层 296
      13.2.4 训练 297
      13.3 神经网络的训练优化 298
      13.3.1 Short-cut连接 298
      13.3.2 层标准化 298
      13.3.3 Dropout机制 299
      13.3.4 神经网络随机梯度下降训练算法的优化 299
      13.3.5 超参数搜索 301
      总结 301
      注释 301
      习题 301
      参考文献 303
      第14章 表示学习 305
      14.1 循环神经网络 305
      14.1.1 朴素循环神经网络 306
      14.1.2 循环神经网络的训练 307
      14.1.3 长短期记忆网络与门控循环单元 309
      14.1.4 堆叠式长短期记忆网络 311
      14.2 注意力机制 312
      14.2.1 键值对注意力 313
      14.2.2 自注意力网络 315
      14.3 树结构 315
      14.3.1 Child-Sum树形长短期记忆网络 316
      14.3.2 二叉树长短期记忆网络 318
      14.3.3 特征对比 319
      14.4 图结构 319
      14.4.1 图循环神经网络 320
      14.4.2 图卷积神经网络 321
      14.4.3 图注意力神经网络 322
      14.4.4 特征聚合 323
      14.5 表示向量的分析 323
      14.6 神经网络的训练 324
      14.6.1 AdaGrad算法 324
      14.6.2 RMSProp算法 325
      14.6.3 AdaDelta算法 325
      14.6.4 Adam算法 326
      14.6.5 优化算法的选择 327
      总结 327
      注释 327
      习题 328
      参考文献 331
      第15章 基于神经网络的结构预测模型 334
      15.1 基于图的局部模型 334
      15.1.1 序列标注 335
      15.1.2 依存分析 337
      15.1.3 成分句法分析 340
      15.1.4 和线性模型的对比 342
      15.2 基于转移的局部贪心模型 342
      15.2.1 模型1 343
      15.2.2 模型2 346
      15.2.3 模型3 347
      15.3 全局结构化模型 349
      15.3.1 基于神经网络的条件随机场模型 349
      15.3.2 全局规范化的基于转移的模型 355
      总结 357
      注释 358
      习题 358
      参考文献 359
      第16章 两段式文本任务 361
      16.1 序列到序列模型 361
      16.1.1 模型1:基于长短期记忆网络 361
      16.1.2 模型2:基于注意力机制 364
      16.1.3 模型3:基于拷贝机制 365
      16.1.4 子词模型 367
      16.1.5 基于多头自注意力网络的序列到序列模型 368
      16.2 文本匹配模型 372
      16.2.1 文本匹配  372
      16.2.2 匹配查询  376
      16.2.3 记忆网络 378
      总结 381
      注释 382
      习题 382
      参考文献 384
      第17章 预训练与迁移学习 386
      17.1 神经网络语言模型与词
      向量 386
      17.1.1 神经网络n元语言
      模型 386
      17.1.2 噪声对比估计 388
      17.1.3 神经网络语言模型的优化 391
      17.1.4 分布式词表示 392
      17.1.5 引入全局统计信息的词向量(GloVe) 394
      17.1.6 词向量评估 395
      17.1.7 词向量与未知词 397
      17.1.8 基于n元组字符的词向量 397
      17.2 上下文相关的词表示 398
      17.2.1 循环神经网络语言模型 398
      17.2.2 基于上下文的词向量 399
      17.2.3 基于自注意力的上下文词向量 400
      17.2.4 双向自注意力网络语言模型 401
      17.2.5 上下文相关词向量的使用 403
      17.3 迁移学习 403
      17.3.1 多任务学习 403
      17.3.2 共享参数的选择 405
      17.3.3 共享-私有网络结构 406
      总结 407
      注释 408
      习题 408
      参考文献 410
      第18章 深度隐变量模型 412
      18.1 将隐变量引入神经网络 412
      18.2 使用类别隐变量 413
      18.2.1 SGD模型训练 413
      18.2.2 文本聚类的词袋模型 415
      18.2.3 考虑序列信息的文本聚类模型 417
      18.3 使用结构化隐变量 418
      18.3.1 引入结构化隐变量 418
      18.3.2 序列标注 420
      18.3.3 序列分割 420
      18.3.4 成分句法 421
      18.4 变分推理 422
      18.4.1 证据下界 422
      18.4.2 坐标上升变分推理 423
      18.4.3 随机变分推理 424
      18.4.4 分摊变分推理 425
      18.4.5 变分自编码器 426
      18.4.6 重参数化 429
      18.5 神经主题模型 431
      18.5.1 神经变分文档模型 431
      18.5.2 神经主题模型介绍 432
      18.6 面向语言模型的变分自编码器 432
      18.6.1 TextVAE 432
      18.6.2 变分序列到序列模型 435
      总结 437
      注释 437
      习题 438
      参考文献 439
      索引 441

      内容摘要
      本书从机器学习的角度系统地讨论自然语言处理,提供了对NLP解决方案更深入的数学理解。学生可以利用这些知识来解决NLP任务,并建立更好的NLP模型。

      配送说明

      ...

      相似商品

      为你推荐

    孔网啦啦啦啦啦纺织女工火锅店第三课

    开播时间:09月02日 10:30

    即将开播,去预约
    直播中,去观看