成功加入购物车

去购物车结算 X
浩子书屋
  • 深入浅出embed 解析与应用实践 人工智能 吴茂贵,王红星 新华正版
  • 深入浅出embed 解析与应用实践 人工智能 吴茂贵,王红星 新华正版
  • 深入浅出embed 解析与应用实践 人工智能 吴茂贵,王红星 新华正版
  • 深入浅出embed 解析与应用实践 人工智能 吴茂贵,王红星 新华正版

深入浅出embed 解析与应用实践 人工智能 吴茂贵,王红星 新华正版

举报

北京智源人工智能研究院院长、微软中国首席技术官、云上海ai研究院院长、中国计算机学会副理事长

  • 作者: 
  • 出版社:    机械工业出版社
  • ISBN:    9787111680642
  • 出版时间: 
  • 版次:    1
  • 装帧:    平装
  • 开本:    16开
  • 页数:    320页
  • 出版时间: 
  • 版次:  1
  • 装帧:  平装
  • 开本:  16开
  • 页数:  320页

售价 59.90 6.1折

定价 ¥99.00 

品相 全新品相描述

优惠 满包邮

优惠 满减券
    运费
    本店暂时无法向该地区发货

    延迟发货说明

    时间:
    说明:

    上书时间2023-12-22

    数量
    库存7
    微信扫描下方二维码
    微信扫描打开成功后,点击右上角”...“进行转发

    卖家超过10天未登录

    • 商品详情
    • 店铺评价
    手机购买
    微信扫码访问
    • 商品分类:
      计算机与互联网
      货号:
      xhwx_1202379788
      品相描述:全新
      正版特价新书
      商品描述:
      主编:

      (1)作者背景:作者是有20余年从业经验的ai技术专家和数据科学家。(2)豪华专家阵容:黄铁军(工智能学会会士/北京智源人工智能研究院院长)、周明(创新工场首席科学家/中国计算机学会副理事长)。(3)内容系统全面:系统讲解了embed的基础、技术、、方和能优化。(4)注重实:详细列举和分析embed在机器学能提升、中英文翻译、系统等6个重要场景的应用实践。(5)学门槛低:秉承复杂问题简单化原则,避艰涩难懂数学公式,尽可能采用可视化的表达方式,内容循序渐进。

      目录:

      前言

      部分 embed基础知识

      章 万物皆可嵌入

      1.1 处理序列问题的一般步骤

      1.2 word embed

      1.2.1 word2vec之前

      1.2.2 cbow模型

      1.2.3 skip-gram模型

      1.2.4 可视化skip-gram模型实现过程

      1.2.5 hierarchical softmax优化

      1.2.6  sampling优化

      1.3 item embed

      1.3.1 微软系统使用item embed

      1.3.2 airbnb系统使用item embed

      1.4 用embed处理分类特征

      1.5 graph embed

      1.5.1 deepwalk方

      1.5.2 line方

      1.5.3 node2vec方

      1.5.4 graph embed在阿里的应用

      1.5.5 知识图谱助力系统实例

      1.6 contextual word embed

      1.6.1 多种预训练模型概述

      1.6.2 多种预训练模型的发展脉络

      1.6.3 各种预训练模型的优缺点

      1.6.4 常用预训练模型

      1.6.5 transformer的应用

      1.7 使用word embed实现中文自动摘要

      1.7.1 背景说明

      1.7.2 预处理中文语料库

      1.7.3 生成词向量

      1.7.4 把文档的词转换为词向量

      1.7.5 生成各主题的关键词

      1.7.6 查看运行结果

      1.8 小结

      第2章 获取embed的方

      2.1 使用pytorch的embed layer

      2.1.1 语格式

      2.1.2 简单实例

      2.1.3 初始化

      2.2 使用tensorflow 2.0的embed layer

      2.2.1 语格式

      2.2.2 简单实例

      2.3 从预训练模型获取embed

      2.3.1 背景说明

      2.3.2 下载imdb数据集

      2.3.3 进行分词

      2.3.4 下载并预处理glove词嵌入

      2.3.5 构建模型

      2.3.6 训练模型

      2.3.7 可视化训练结果

      2.3.8 不使用预训练词嵌入的情况

      2.4 小结

      第3章 计算机视觉处理

      3.1 卷积神经网络

      3.1.1 卷积网络的一般架构

      3.1.2 增加通道的魅力

      3.1.3 加深网络的动机

      3.1.4 残差连接

      3.2 使用预训练模型

      3.2.1 迁移学简介

      3.2.2 使用预训练模型的方

      3.3 获取预训练模型

      3.4 使用pytorch实现数据迁移实例

      3.4.1 特征提取实例

      3.4.2 微调实例

      3.5 小结

      第4章 文本及序列处理

      4.1 循环网络的基本结构

      4.1.1 标准循环神经网络

      4.1.2 深度循环神经网络

      4.1.3 lstm网络结构

      4.1.4 gru网络结构

      4.1.5 双向循环神经网络

      4.2 构建一些特殊模型

      4.2.1 encoder-decoder模型

      4.2.2 seq2seq模型

      4.3 小结

      第5章 注意力机制

      5.1 注意力机制概述

      5.1.1 两种常见的注意力机制

      5.1.2 注意力机制的本质

      5.2 带注意力机制的encoder-decoder模型

      5.2.1 引入注意力机制

      5.2.2 计算注意力分配值

      5.2.3 使用pytorch实现带注意力机制的encoder-decoder模型

      5.3 可视化transformer

      5.3.1 transformer的顶层设计

      5.3.2 encoder与decoder的输入

      5.3.3 高并发长记忆的实现

      5.3.4 为加深transformer网络层保驾护航的几种方

      5.3.5 如何自监督学

      5.4 使用pytorch实现transformer

      5.4.1 transformer背景介绍

      5.4.2 构建encoder-decoder模型

      5.4.3 构建encoder

      5.4.4 构建decoder

      5.4.5 构建multiheadedattention

      5.4.6 构建前馈网络层

      5.4.7 预处理输入数据

      5.4.8 构建完整网络

      5.4.9 训练模型

      5.4.10 实现一个简单实例

      5.5 transformer-xl

      5.5.1 引入循环机制

      5.5.2 使用相对位置编码

      5.5.3 transformer-xl计算过程

      5.6 使用pytorch构建transformer-xl

      5.6.1 构建单个head attention

      5.6.2 构建multiheadattention

      5.6.3 构建decoder

      5.7 reformer

      5.7.1 使用局部敏感哈希

      5.7.2 使用可逆残差网络

      5.8 小结

      第6章 从word embed到elmo

      6.1 从word2vec到elmo

      6.2 可视化elmo

      6.2.1 字符编码层

      6.2.2 双向语言模型

      6.2.3 生成elmo词嵌入

      6.3 小结

      第7章 从elmo到bert和gpt

      7.1 elmo的优缺点

      7.2 可视化bert

      7.2.1 bert的整体架构

      7.2.2 bert的输入

      7.2.3 掩码语言模型

      7.2.4 预测下一个句子

      7.2.5 微调

      7.2.6 使用特征提取方

      7.3 使用pytorch实现bert

      7.3.1 bertembed类的代码

      7.3.2 transformerblock类的代码

      7.3.3 构建bert的代码

      7.4 可视化gpt

      7.4.1 gpt简介

      7.4.2 gpt的整体架构

      7.4.3 gpt的模型结构

      7.4.4 gpt-2的multi-head与bert的multi-head之间的区别

      7.4.5 gpt-2的输入

      7.4.6 gpt-2计算遮掩自注意力的详细过程

      7.4.7 输出

      7.4.8 gpt与gpt-2的异同

      7.5 gpt-3简介

      7.6 小结

      第8章 bert的优化方

      8.1 可视化xl

      8.1.1 排列语言模型简介

      8.1.2 使用双流自注意力机制

      8.1.3 融入transformer-xl的理念

      8.1.4 改进后的效果

      8.2 albert方

      8.2.1 分解vocabulary embed矩阵

      8.2.2 跨层共享参数

      8.2.3 用sop代替nsp方

      8.2.4 其他优化方

      8.3 electra方

      8.3.1 electra概述

      8.3.2 rtd结构

      8.3.3 损失函数

      8.3.4 electra与gan的异同

      8.3.5 评估

      8.4 小结

      第9章 系统

      9.1 系统概述

      9.1.1 系统的一般流程

      9.1.2 常用算

      9.2 协同过滤

      9.2.1 基于用户的协同过滤

      9.2.2 基于物品的协同过滤

      9.3 深度学在系统中的应用

      9.3.1 协同过滤中与神经网络结合

      9.3.2 融入多层感知机的系统

      9.3.3 融入卷积网络的系统

      9.3.4 融入transformer的系统

      9.4 小结

      第二部分 embed应用实例

      0章 用embed表现分类特征

      10.1 项目背景

      10.1.1 项目概述

      10.1.2 数据集说明

      10.2 tensorflow 2详细实现

      10.2.1 导入tensorflow和其他库

      10.2.2 导入数据集并创建dataframe

      10.2.3 将dataframe拆分为训练、验证和测试集

      10.2.4 用tf.data创建输入流水线

      10.2.5 tensorflow提供的几种处理特征列的方

      10.2.6 选择特征

      10.2.7 创建网络的输入层

      10.2.8 创建、编译和训练模型

      10.2.9 可视化训练过程

      10.2.10 测试模型

      10.3 小结

      1章 用embed提升机器学能

      11.1 项目概述

      11.1.1 数据集简介

      11.1.2 导入数据

      11.1.3 预处理数据

      11.1.4 定义公共函数

      11.2 使用embed提升神经网络能

      11.2.1 基于独热编码的模型

      11.2.2 基于embed的模型

      11.3 构建xgboost模型

      11.4 使用embed数据的xgboost模型

      11.5 可视化embed数据

      11.6 小结

      2章 用transformer实现英译中

      12.1 tensorflow 2+实例概述

      12.2 预处理数据

      12.2.1 下载数据

      12.2.2 分割数据

      12.2.3 创建英文语料字典

      12.2.4 创建中文语料字典

      12.2.5 定义编码函数

      12.2.6 过滤数据

      12.2.7 创建训练集和验证集

      12.3 构建transformer模型

      12.3.1 transformer模型架构图

      12.3.2 架构说明

      12.3.3 构建scaled_dot_product_attention模块

      12.3.4 构建multiheadattention模块

      12.3.5 构建point_wise_feed_forward_work模块

      12.3.6 构建encoderlayer模块

      12.3.7 构建encoder模块

      12.3.8 构建decoderlayer模块

      12.3.9 构建decoder模块

      12.3.10 构建transformer模型

      12.3.11 定义掩码函数

      12.4 定义损失函数

      12.5 定义优化器

      12.6 训练模型

      12.6.1 实例化transformer

      12.6.2 设置checkpoint

      12.6.3 生成多种掩码

      12.6.4 定义训练模型函数

      12.6.5 训练模型

      12.7 评估预测模型

      12.7.1 定义评估函数

      12.7.2 测试翻译几个简单语句

      12.8 可视化注意力权重

      12.9 小结

      3章 embed技术在系统中的应用

      13.1 embed在airbnb系统中的应用

      13.2 transformer在阿里系统中的应用

      13.3 bert在美团系统中的应用

      13.4 小结

      4章 用bert实现中文语句分类

      14.1 背景说明

      14.1.1 查看中文bert字典里的一些信息

      14.1.2 使用tokenizer分割中文语句

      14.2 可视化bert注意力权重

      14.2.1 bert对mask字的预测

      14.2.2 导入可视化需要的库

      14.2.3 可视化

      14.3 用bert预训练模型微调下游任务

      14.3.1 准备原始文本数据

      14.3.2 将原始文本转换成bert的输入格式

      14.3.3 定义读取数据的函数

      14.3.4 读取数据并进行数据转换

      14.3.5 增加一个批量维度

      14.3.6 查看一个批次数据样例

      14.3.7 微调bert完成下游任务

      14.3.8 查看微调后模型的结构

      14.4 训练模型

      14.4.1 定义预测函数

      14.4.2 训练模型

      14.5 测试模型

      14.5.1 用新数据测试模型

      14.5.2 比较微调前后的数据异同

      14.5.3 可视化注意力权重

      14.6 小结

      5章 用gpt-2生成文本

      15.1 gpt-2概述

      15.2 用gpt-2生闻

      15.2.1 定义选择函数

      15.2.2 使用预训练模型生闻

      15.3 微调gpt-2生成戏剧文本

      15.3.1 读取文件

      15.3.2 对文件进行分词

      15.3.3 把数据集转换为可迭代对象

      15.3.4 训练模型

      15.3.5 使用模型生成文本

      15.4 小结

      6章 embed技术结

      16.1 embed技术回顾

      16.1.1 embed表示

      16.1.2 多种学embed表示的算

      16.1.3 几种embed衍生技术

      16.1.4 embed技术的不足

      16.2 embed技术展望

      16.2.1 从embed的表示方面进行优化

      16.2.2 从embed的结构上进行优化

      16.3 小结

      附录a 基于gpu的tensorflow 2+、pytorch 1+升级安装

      附录b 语言模型


      内容简介:

      这是一本系统、全面、理论与实践相结合的embed技术指南,由的ai技术专家和数据科学家撰写,得到了黄铁军、韦青、张峥、周明等工智能领域的领物的一致和。在内容方面,本书理论与实兼顾,一方面系统讲解了embed的基础、技术、、方和能优化,一方面详细列举和分析了embed在机器学能提升、中英文翻译、系统等6个重要场景的应用实践;在写作方式上,秉承复杂问题简单化的原则,尽量避复杂的数学公式,尽量采用可视化的表达方式,旨在降低本书的学门槛,让读者能看得完、学得会。全书一共16章,分为两个部分。部分(~9章)embed理论知识主要讲解embed的基础知识、以及如何让embed落地的相关技术,如tensorflow和pytorch中的embed层、n算、rnn算、迁移学方等,重点介绍了transformer和基于它的gpt、bert预训练模型及bert的多种改进版本等。第二部分(0~16章)embed应用实例通过6个实例介绍了embed及相关技术的实际应用,包括如何使用embed提升传统机器学,如何把embed技术应用到系统中,如何使用embed技术提升nlp模型的能等。

      作者简介:

      作者简介吴茂贵大数据和人工智能技术专家,在bi、数据挖掘与分析、数据仓库、机器学等领域工作超过20年。在基于spark、tensorflow、pytorch、keras等的机器学和深度学方面有大量的工程实践实践,对embed有深入研究。著有深度实践spark机器学python深度学:基于tensorflowpython深度学:基于pytorch等多部著作,广受读者。王红星?数据科学家,任职于博世(中国)投资有限公司苏州分公司,负责bosch数据湖,数据分析与人工智能相关的产品与服务的设计和开发。在大数据、机器学、人工智能方面有丰富的实践经验。

      配送说明

      ...

      相似商品

      为你推荐

    孔网啦啦啦啦啦纺织女工火锅店第三课

    开播时间:09月02日 10:30

    即将开播,去预约
    直播中,去观看