成功加入购物车
正版现货可开票,查书找书找客服!
王军民 / 1科学/龙门书局出版社 / 2025-10 / 平装
售价 ¥ 128.00 8.1折
定价 ¥158.00
品相 全新
延迟发货说明
上书时间2026-03-07
卖家超过10天未登录
正版全新 平装
2007 年入选教育部新世纪优秀人才,2012 年获北京市科学技术二等奖,2019年获教育部高等学校科学研究优秀成果自然科学二等奖。
br/>前言主要符号表 1 深度学习概述 1 1.1 人工智能浪潮 11.1.1 **次人工智能浪潮 21.1.2 第二次人工智能浪潮 31.1.3 第三次人工智能浪潮 41.2 什么是机器学习? 61.2.1 数据 61.2.2 模型 71.2.3 算法 91.2.4 指标 101.2.5 机器学习与传统编程的区别 101.3 监督学习 111.3.1 分类问题 121.3.2 回归问题 141.4 无监督学习 171.5 半监督学习 211.6 强化学习 221.7 深度学习 24 2 深度学习的编程基础 27 2.1 安装Anaconda开发环境 272.1.1 环境和包的管理 282.1.2 运行Python程序 322.2 Python语言基础 342.2.1 基本数据类型 352.2.2 条件语句 402.2.3 循环语句 422.2.4 函数 472.2.5 类 592.3 Numpy 692.3.1 创建和保存ndarray 702.3.2 Numpy中的函数 742.3.3 ndarray塑形 782.3.4 ndarray中的矩阵代数 812.3.5 ndarray的random模块 822.4 Pandas 852.4.1 主要数据结构 852.4.2 数据的导入与导出 972.4.3 数据操作 1022.4.4 缺失值处理 1092.4.5 描述性统计 1132.4.6 数据可视化 1162.5 Matplotlib 1182.5.1 函数式接口和OO接口 1182.5.2 图形、坐标轴和其他组件 1192.5.3 一些绘图实例 121 3 深度学习框架简介 127 3.1 TensorFlow框架 1273.1.1 核心特点 1273.1.2 TensorFlow的工作流程 1283.1.3 TensorFlow的优势 1283.1.4 张量 1293.2 Keras API 1303.2.1 序贯API 1313.2.2 函数式API 1313.2.3 子类化API 1323.2.4 总结 1323.3 PyTorch框架 1333.3.1 PyTorch的关键特点 1333.3.2 PyTorch的基本使用流程 1363.3.3 总结 1433.4 其他框架 1433.4.1 华为MindSpore 1433.4.2 百度PaddlePaddle 1443.4.3 总结 145 4 深度学习的数学理论 147 4.1 神经网络简介 1474.1.1 神经元 1474.1.2 层 1494.1.3 神经网络 1494.2 激活函数 1504.3 损失函数 1554.3.1 均方误差 1554.3.2 交叉熵 1564.3.3 实例:ILSVRC 2012图片分类任务的损失函数 1584.4 优化器 1584.4.1 小批量随机梯度下降法 1584.4.2 带动量的SGD 1614.4.3 Adagrad 1614.4.4 RMSProp 1624.4.5 Adam 1624.5 评估指标 1634.5.1 数据集的划分 1644.5.2 交叉验证 1654.5.3 过拟合与泛化 166 5 多层感知机模型 169 5.1 感知机简介 1695.1.1 感知机的基本结构 1695.1.2 感知机的工作原理 1695.1.3 感知机的数学公式 1705.1.4 感知机的训练过程 1705.1.5 感知机的优缺点 1715.1.6 总结 1715.2 多层感知机的反向传播算法 1715.2.1 多层感知机简介 1715.2.2 反向传播算法概述 1725.3 mnist手写数字识别问题 1745.3.1 mnist数据集 1755.3.2 建立MLP模型 1765.3.3 训练MLP模型 1795.3.4 绘制学习*线 1805.3.5 评估MLP模型 1825.3.6 利用模型进行预测 1835.3.7 模型训练中的各种时间开销 1855.4 Boston房价预测的回归问题 1865.4.1 Boston房价数据集 1865.4.2 建立MLP回归模型 1885.4.3 训练MLP模型 1905.4.4 评估MLP模型 1915.4.5 用MLP模型进行预测 1915.4.6 建立、训练、评估多元线性回归模型 1915.4.7 MLP与MLR模型对比 193 6 在计算机视觉领域的实践 195 6.1 卷积神经网络 1956.1.1 卷积运算 1966.1.2 填充和步幅 1986.1.3 *大与平均汇聚 1996.2 CNN的典型应用 2006.2.1 图像分类 2006.2.2 目标检测 2016.2.3 图像分割 2016.2.4 风格迁移 2016.2.5 图像生成与超分辨率 2016.2.6 图像描述与视觉问答 2026.2.7 人脸识别与表情分析 2026.2.8 姿态估计 2026.2.9 自动驾驶 2026.2.10 视频分析与处理 2026.3 在mnist数据集上训练CNN模型 2036.3.1 mnist数据集 2046.3.2 建立多层CNN模型 2056.3.3 训练CNN模型 2076.3.4 绘制学习*线 2086.3.5 评估CNN模型 2106.3.6 利用模型进行预测 2116.3.7 模型训练中的各种时间开销 2136.4 **CNN模型简介 2146.4.1 LeNet-5 2146.4.2 AlexNet 2176.4.3 VGGNet 2206.4.4 GoogLeNet 2236.4.5 ResNet 2276.5 图片数据增强 2296.6 解释CNN模型学到的内容 2336.6.1 可视化卷积滤波器 2336.6.2 可视化类激活热力图 2386.6.3 可视化中间激活值 2446.7 DeepDream 249 7 在序列数据学习领域的实践 257 7.1 循环神经网络简介 2577.2 长短期记忆网络 2597.3 门控循环单元 2617.4 在小型时间序列数据集上训练RNN模型 2637.4.1 jena数据集简介 2637.4.2 dense模型 2687.4.3 Conv1D模型 2697.4.4 LSTM模型 2707.5 对文本序列的学习 2717.5.1 自然语言处理概述 2717.5.2 序列到序列的学习 2747.6 文本情感分类 2777.6.1 准备IMDB数据 2797.6.2 词袋模型:BoW 2837.6.3 序列模型:双向LSTM 2877.6.4 序列模型:word embedding 289 8 生成式学习 295 8.1 生成式学习简述 2958.1.1 生成式学习基本方法简述 2958.1.2 生成式学习的应用 2968.1.3 生成式学习的挑战 2978.2 自编码器 2988.2.1 自编码器的结构、原理及特性 2988.2.2 自编码器的类型 2998.2.3 应用领域 3048.3 变分自编码器 3048.3.1 潜变量模型 3048.3.2 非线性潜变量模型 3068.3.3 模型训练 3078.3.4 ELBO性质 3098.3.5 变分近似 3118.3.6 变分自编码器的原理 3128.3.7 重新参数化技巧 3138.3.8 示例:生成与mnist手写数字风格相似的图片 3148.4 生成对抗网络 3198.4.1 GAN的原理 3208.4.2 提高GAN训练稳定性 3238.4.3 示例:利用GAN生成图像 326 9 强化学习 335 9.1 马尔可夫决策过程、回报和策略 3359.1.1 马尔可夫过程 3369.1.2 马尔可夫奖励过程 3369.1.3 马尔可夫决策过程 3379.1.4 部分可观察马尔可夫决策过程 3379.1.5 策略 3389.2 期望回报 3399.2.1 状态值和动作值 3399.2.2 *优策略 3409.2.3 贝尔曼方程 3409.3 表格型强化学习 3419.3.1 动态规划 3429.3.2 蒙特卡洛方法 3429.3.3 时序差分方法 3439.4 拟合Q学习 3449.4.1 利用深度Q网络玩Atari游戏 3449.4.2 双Q学习和双Q深度学习 3469.5 策略梯度方法 3479.5.1 梯度更新的推导 3489.5.2 REINFORCE算法 3509.5.3 基线 3509.5.4 状态依赖的基线 3519.6 Actor-Critic算法 3579.7 离线强化学习 3629.8 讨论 363 10 神经算子 365 10.1 DeepONet 36510.1.1 算子的通用逼近定理 36510.1.2 DeepONet的架构 36610.1.3 DeepONet的学习实例 36910.1.4 DeepONet的优势 37410.2 傅里叶神经算子 37510.2.1 FNO的背景 37610.2.2 FNO的原理 37610.2.3 FNO的架构 37810.2.4 FNO的学习实例 37910.2.5 DeepONet和FNO的比较 38410.3 物理信息神经网络 38510.3.1 正向问题:数据驱动微分方程求解 38510.3.2 逆向问题:数据驱动发现微分方程 392 11 深度学习进阶 399 11.1 预训练模型与微调 39911.1.1 特征提取 39911.1.2 模型微调 40811.2 Transformer架构 41011.2.1 Transformer架构的发展历程 41011.2.2 Transformer架构的核心原理 41011.2.3 Transformer在自然语言处理中的应用 42011.2.4 Transforme内容摘要机器学习是人工智能的核心实现方式之一,深度学习是机器学习的一种,它基于人工神经网络,通过多层非线性变换提取数据特征。《深度学习基础与实践》系统地介绍了深度学习的核心理论与应用,从人工智能发展历程和机器学习基础讲起,涵盖Python编程、主流框架(TensorFlow、PyTorch等)、神经网络原理(结构、优化、评估)及**模型(MLP、CNN、RNN),并配有手写数字识别、图像分类等实战案例。《深度学习基础与实践》特别设置生成式学习(VAE、GAN)、强化学习、神经算子(DeepONet、PINN)等前沿内容,*后探讨Transformer架构、模型可解释性等热点议题。
展开全部
配送说明
...
相似商品
为你推荐
开播时间:09月02日 10:30