成功加入购物车
[日] 斋藤康毅 著; 陆宇杰 译 / 人民邮电出版社 / 2020-10 / 平装
售价 ¥ 999.00
品相 全新品相描述
优惠 满包邮
延迟发货说明
上书时间2024-12-01
卖家超过10天未登录
深度学习进阶自然语言处理
《深度学习进阶:自然语言处理》是《深度学习入门:基于Python 的理论与实现》的续作,围绕自然语言处理和时序数据处理,介绍深度学习中的重要技术,包括word2vec、RNN、LSTM、GRU、seq2seq 和Attention 等。本书语言平实,结合大量示意图和Python代码,按照“提出问题”“思考解决问题的新方法”“加以改善”的流程,基于深度学习解决自然语言处理相关的各种问题,使读者在此过程中更深入地理解深度学习中的重要技术。
斋藤康毅(作者)
1984年生于日本长崎县,东京工业大学毕业,并完成东京大学研究生院课程。目前在某企业从事人工智能相关的研究和开发工作。著有《深度学习入门:基于Python的理论与实现》,同时也是Introducing Python、Python in Practice、The Elements of Computing Systems、Building Machine Learning Systems with Python的日文版译者。
陆宇杰(译者)
长期从事自然语言处理、知识图谱、深度学习相关的研究和开发工作。译有《深度学习入门:基于Python的理论与实现》。
译者序 xi前言 xiii第 1 章 神经网络的复习 11.1 数学和Python的复习 11.1.1 向量和矩阵 11.1.2 矩阵的对应元素的运算 41.1.3 广播 41.1.4 向量内积和矩阵乘积 61.1.5 矩阵的形状检查 71.2 神经网络的推理 81.2.1 神经网络的推理的全貌图 81.2.2 层的类化及正向传播的实现 141.3 神经网络的学习 181.3.1 损失函数 181.3.2 导数和梯度 211.3.3 链式法则 231.3.4 计算图 241.3.5 梯度的推导和反向传播的实现 351.3.6 权重的更新 391.4 使用神经网络解决问题 411.4.1 螺旋状数据集 411.4.2 神经网络的实现 431.4.3 学习用的代码 451.4.4 Trainer 类 491.5 计算的高速化 501.5.1 位精度 511.5.2 GPU(CuPy) 521.6 小结 54第 2 章 自然语言和单词的分布式表示 572.1 什么是自然语言处理 572.2 同义词词典 592.2.1 WordNet 612.2.2 同义词词典的问题 612.3 基于计数的方法 632.3.1 基于Python的语料库的预处理 632.3.2 单词的分布式表示 662.3.3 分布式假设 672.3.4 共现矩阵 682.3.5 向量间的相似度 722.3.6 相似单词的排序 742.4 基于计数的方法的改进 772.4.1 点互信息 772.4.2 降维 812.4.3 基于SVD的降维 842.4.4 PTB数据集 862.4.5 基于PTB数据集的评价 882.5 小结 91第3 章 word2vec 933.1 基于推理的方法和神经网络 933.1.1 基于计数的方法的问题 943.1.2 基于推理的方法的概要 953.1.3 神经网络中单词的处理方法 963.2 简单的word2vec 1013.2.1 CBOW模型的推理 1013.2.2 CBOW模型的学习 1063.2.3 word2vec的权重和分布式表示 1083.3 学习数据的准备 1103.2.1 上下文和目标词 1103.3.2 转化为one-hot 表示 1133.4 CBOW模型的实现 1143.5 word2vec的补充说明 1203.5.1 CBOW模型和概率 1213.5.2 skip-gram 模型 1223.5.3 基于计数与基于推理 1253.6 小结 127第4 章 word2vec的高速化 1294.1 word2vec的改进① 1294.1.1 Embedding层 1324.1.2 Embedding层的实现 1334.2 word2vec的改进② 1374.2.1 中间层之后的计算问题 1384.2.2 从多分类到二分类 1394.2.3 Sigmoid 函数和交叉熵误差 1414.2.4 多分类到二分类的实现 1444.2.5 负采样 1484.2.6 负采样的采样方法 1514.2.7 负采样的实现 1544.3 改进版word2vec的学习 1564.3.1 CBOW模型的实现 1564.3.2 CBOW模型的学习代码 1594.3.3 CBOW模型的评价 1614.4 wor2vec相关的其他话题 1654.4.1 word2vec的应用例 1664.4.2 单词向量的评价方法 1684.5 小结 170第5 章 RNN 1735.1 概率和语言模型 1735.1.1 概率视角下的word2vec 1745.1.2 语言模型 1765.1.3 将CBOW模型用作语言模型? 1785.2 RNN 1815.2.1 循环的神经网络 1815.2.2 展开循环 1835.2.3 Backpropagation Through Time 1855.2.4 Truncated BPTT 1865.2.5 Truncated BPTT的mini-batch 学习 1905.3 RNN的实现 1925.3.1 RNN层的实现 1935.3.2 Time RNN层的实现 1975.4 处理时序数据的层的实现 2025.4.1 RNNLM的全貌图 2025.4.2 Time层的实现 2055.5 RNNLM的学习和评价 2075.5.1 RNNLM的实现 2075.5.2 语言模型的评价 2115.5.3 RNNLM的学习代码 2135.5.4 RNNLM的Trainer类 2165.6 小结 217第6 章 Gated RNN 2196.1 RNN的问题 2206.1.1 RNN的复习 2206.1.2 梯度消失和梯度爆炸 2216.1.3 梯度消失和梯度爆炸的原因 2236.1.4 梯度爆炸的对策 2286.2 梯度消失和LSTM 2296.2.1 LSTM的接口 2306.2.2 LSTM层的结构 2316.2.3 输出门 2346.2.4 遗忘门 2366.2.5 新的记忆单元 2376.2.6 输入门 2386.2.7 LSTM的梯度的流动 2396.3 LSTM的实现 2406.4 使用LSTM的语言模型 2486.5 进一步改进RNNLM 2556.5.1 LSTM层的多层化 2566.5.2 基于Dropout抑制过拟合 2576.5.3 权重共享 2626.5.4 更好的RNNLM的实现 2636.5.5 前沿研究 2696.6 小结 270第7 章 基于RNN生成文本 2737.1 使用语言模型生成文本 2747.1.1 使用RNN生成文本的步骤 2747.1.2 文本生成的实现 2787.1.3 更好的文本生成 2817.2 seq2seq 模型 2837.2.1 seq2seq 的原理 2837.2.2 时序数据转换的简单尝试 2877.2.3 可变长度的时序数据 2887.2.4 加法数据集 2907.3 seq2seq 的实现 2917.3.1 Encoder类 2917.3.2 Decoder类 2957.3.3 Seq2seq 类 3007.3.4 seq2seq 的评价 3017.4 seq2seq 的改进 3057.4.1 反转输入数据(Reverse) 3057.4.2 偷窥(Peeky) 3087.5 seq2seq 的应用 3137.5.1 聊天机器人 3147.5.2 算法学习 3157.5.3 自动图像描述 3167.6 小结 318第8 章 Attention 3218.1 Attention 的结构 3218.1.1 seq2seq 存在的问题 3228.1.2 编码器的改进 3238.1.3 解码器的改进① 3258.1.4 解码器的改进② 3338.1.5 解码器的改进③ 3398.2 带Attention 的seq2seq 的实现 3448.2.1 编码器的实现 3448.2.2 解码器的实现 3458.2.3 seq2seq 的实现 3478.3 Attention 的评价 3478.3.1 日期格式转换问题 3488.3.2 带Attention 的seq2seq 的学习 3498.3.3 Attention 的可视化 3538.4 关于Attention 的其他话题 3568.4.1 双向RNN 3568.4.2 Attention 层的使用方法 3588.4.3 seq2seq 的深层化和skip connection 3608.5 Attention 的应用 3638.5.1 Google Neural Machine Translation(GNMT) 3638.5.2 Transformer 3658.5.3 Neural Turing Machine(NTM) 3698.6 小结 373附录A sigmoid 函数和tanh 函数的导数 375A.1 sigmoid 函数 375A.2 tanh 函数 378A.3 小结 380附录B 运行WordNet 381B.1 NLTK的安装 381B.2 使用WordNet获得同义词 382B.3 WordNet和单词网络 384B.4 基于WordNet的语义相似度 385附录C GRU 387C.1 GRU的接口 387C.2 GRU的计算图 388后记 391参考文献 395
展开全部
图2
图3
配送说明
...
相似商品
为你推荐
开播时间:09月02日 10:30