当前位置:首页 > 人工智能 >
《动手学深度学习》电子书封面

动手学深度学习

  • 发布时间:2019年11月18日 15:21:18
  • 作者:阿斯顿·张,李沐,扎卡里&
  • 大小:14.1 MB
  • 类别:深度学习电子书
  • 格式:PDF
  • 版本:超清版
  • 评分:8.4
  • 深度学习之图像识别:核心技术与案例实战深度学习之图像识别:核心技术与案例实战
  • 深度学习深度学习
  • 深度学习与R语言深度学习与R语言
  • PyTorch深度学习PyTorch深度学习
  • 深度学习:人工智能算法(Deep Learning)深度学习:人工智能算法(Deep Learning)
  • 揭秘深度强化学习揭秘深度强化学习
  • Python深度学习Python深度学习
  • 动手学深度学习 PDF 超清版

      给大家带来的一篇关于深度学习相关的电子书资源,介绍了关于深度学习、云服务方面的内容,本书是由人民邮电出版社有限公司出版,格式为PDF,资源大小14.1 MB,阿斯顿·张,李沐,扎卡里&编写,目前豆瓣、亚马逊、当当、京东等电子书综合评分为:9.5。

      内容介绍

      现在市面上相关深度学习详细介绍的书藉大多数分为两大类,一类偏重于方式介绍,另一类偏重于实践活动和深度学习专用工具的详细介绍。这书另外遮盖方式 和实践活动。这书不但从数学课的视角论述深度学习的技术性与运用,还包括可运行的编码,为读者展现怎样在实际上中解决困难。以便给读者提供一种互动式的学习感受,这书不仅提供完全免费的视频教学和讨论区,并且提供可运行的Jupyter记事本文件,灵活运用Jupyter文本文档能将文本、编码、公式计算和图象统一起來的优点。那样不但立即将数学公式相匹配成实际上编码,并且能够改动编码、观查結果并立即获得工作经验,进而带来读者全新升级的、互动式的深度学习的学习感受。 这书朝向期待掌握深度学习,非常是对实际上应用深度学习很感兴趣的在校大学生、技术工程师和科学研究工作人员。这书不规定读者有一切深度学习或是设备学习的背景图专业知识,读者只需具有基础的数学课和编写程序专业知识,如基本的线性代数、微分、几率及Python编写程序专业知识。这书的附则中提供了书中涉及到的关键数学知识,供读者参照。 这书的英文版Dive into Deep Learning是加州大学伯克利分校2019年春学年“Introduction to Deep Learning”(深度学习导论)课程内容的教材内容。截止2019年春学年,这书中的內容已被全世界15 所著名高校用以课堂教学。这书的学习小区、完全免费教育资源(教学课件、视频教学、大量练习题等),及其用以这书学习和课堂教学的完全免费计算资源(只限学生和老师)的申请办理方式 在这书配套设施网址zh.d2l.ai上公布。读者在阅读文章这书的全过程中,假如对书中某节內容有疑虑,还可以扫一扫书中相匹配的二维码求助。这书致力于向读者交货相关深度学习的互动式学习感受。书中不但论述深度学习的优化算法基本原理,还演试他们的保持和运行。与传统式书籍不一样,这书的每一节全是一个能够免费下载并运行的 Jupyter文本文档,它将文本、公式计算、图象、编码和运行結果融合在了一起。除此之外,读者可以浏览并参加书中內容的探讨。 本书的內容分成3个一部分:*一部分详细介绍深度学习的背景图,提供准备专业知识,并包含深度学习*基本的定义和技术性;第二一部分叙述深度学习测算的关键构成,还表述近些年令深度学习在好几个行业大获取得成功的卷积神经网络和循环系统神经元网络;第三一部分点评优化计算方法,检测危害深度学习测算特性的关键要素,并各自例举深度学习在计算机视觉和自然语言理解中的关键运用。 这书另外遮盖深度学习的方式 和实践活动,关键朝向在校学生、专业技术人员和科学研究工作人员。阅读文章这书必须读者掌握基础的Python编写程序或附则中叙述的线性代数、微分和几率基本。

      目录

      • 对本书的赞誉
      • 前言
      • 如何使用本书
      • 资源与支持
      • 主要符号表
      • 第 1 章 深度学习简介 1
      • 1.1 起源 2
      • 1.2 发展 4
      • 1.3 成功案例 6
      • 1.4 特点 7
      • 小结 8
      • 练习 8
      • 第 2 章 预备知识 9
      • 2.1 获取和运行本书的代码 9
      • 2.1.1 获取代码并安装运行环境 9
      • 2.1.2 更新代码和运行环境 11
      • 2.1.3 使用GPU版的MXNet 11
      • 小结12
      • 练习12
      • 2.2 数据操作 12
      • 2.2.1 创建NDArray 12
      • 2.2.2 运算 14
      • 2.2.3 广播机制 16
      • 2.2.4 索引 17
      • 2.2.5 运算的内存开销 17
      • 2.2.6 NDArray和NumPy相互变换18
      • 小结19
      • 练习19
      • 2.3 自动求梯度 19
      • 2.3.1 简单例子 19
      • 2.3.2 训练模式和预测模式 20
      • 2.3.3 对Python控制流求梯度 20
      • 小结21
      • 练习21
      • 2.4 查阅文档 21
      • 2.4.1 查找模块里的所有函数和类 21
      • 2.4.2 查找特定函数和类的使用 22
      • 2.4.3 在MXNet网站上查阅 23
      • 小结 24
      • 练习 24
      • 第3 章 深度学习基础 25
      • 3.1 线性回归 25
      • 3.1.1 线性回归的基本要素 25
      • 3.1.2 线性回归的表示方法 28
      • 小结 30
      • 练习 30
      • 3.2 线性回归的从零开始实现 30
      • 3.2.1 生成数据集 30
      • 3.2.2 读取数据集 32
      • 3.2.3 初始化模型参数 32
      • 3.2.4 定义模型 33
      • 3.2.5 定义损失函数 33
      • 3.2.6 定义优化算法 33
      • 3.2.7 训练模型 33
      • 小结 34
      • 练习 34
      • 3.3 线性回归的简洁实现 35
      • 3.3.1 生成数据集 35
      • 3.3.2 读取数据集 35
      • 3.3.3 定义模型 36
      • 3.3.4 初始化模型参数 36
      • 3.3.5 定义损失函数 37
      • 3.3.6 定义优化算法 37
      • 3.3.7 训练模型 37
      • 小结 38
      • 练习 38
      • 3.4 softmax回归 38
      • 3.4.1 分类问题 38
      • 3.4.2 softmax回归模型 39
      • 3.4.3 单样本分类的矢量计算表达式 40
      • 3.4.4 小批量样本分类的矢量计算表达式 40
      • 3.4.5 交叉熵损失函数 41
      • 3.4.6 模型预测及评价 42
      • 小结 42
      • 练习 42
      • 3.5 图像分类数据集(Fashion-MNIST) 42
      • 3.5.1 获取数据集 42
      • 3.5.2 读取小批量 44
      • 小结 45
      • 练习 45
      • 3.6 softmax回归的从零开始实现 45
      • 3.6.1 读取数据集 45
      • 3.6.2 初始化模型参数 45
      • 3.6.3 实现softmax运算 46
      • 3.6.4 定义模型 46
      • 3.6.5 定义损失函数 47
      • 3.6.6 计算分类准确率 47
      • 3.6.7 训练模型 48
      • 3.6.8 预测 48
      • 小结 49
      • 练习 49
      • 3.7 softmax回归的简洁实现 49
      • 3.7.1 读取数据集 49
      • 3.7.2 定义和初始化模型 50
      • 3.7.3 softmax和交叉熵损失函数 50
      • 3.7.4 定义优化算法 50
      • 3.7.5 训练模型 50
      • 小结 50
      • 练习 50
      • 3.8 多层感知机 51
      • 3.8.1 隐藏层 51
      • 3.8.2 激活函数 52
      • 3.8.3 多层感知机 55
      • 小结 55
      • 练习 55
      • 3.9 多层感知机的从零开始实现 56
      • 3.9.1 读取数据集 56
      • 3.9.2 定义模型参数 56
      • 3.9.3 定义激活函数 56
      • 3.9.4 定义模型 56
      • 3.9.5 定义损失函数 57
      • 3.9.6 训练模型 57
      • 小结 57
      • 练习 57
      • 3.10 多层感知机的简洁实现 57
      • 3.10.1 定义模型 58
      • 3.10.2 训练模型 58
      • 小结 58
      • 练习 58
      • 3.11 模型选择、欠拟合和过拟合 58
      • 3.11.1 训练误差和泛化误差 59
      • 3.11.2 模型选择 59
      • 3.11.3 欠拟合和过拟合 60
      • 3.11.4 多项式函数拟合实验 61
      • 小结 65
      • 练习 65
      • 3.12 权重衰减 65
      • 3.12.1 方法 65
      • 3.12.2 高维线性回归实验 66
      • 3.12.3 从零开始实现 66
      • 3.12.4 简洁实现 68
      • 小结 70
      • 练习 70
      • 3.13 丢弃法 70
      • 3.13.1 方法 70
      • 3.13.2 从零开始实现 71
      • 3.13.3 简洁实现 73
      • 小结 74
      • 练习 74
      • 3.14 正向传播、反向传播和计算图 74
      • 3.14.1 正向传播 74
      • 3.14.2 正向传播的计算图 75
      • 3.14.3 反向传播 75
      • 3.14.4 训练深度学习模型 76
      • 小结 77
      • 练习 77
      • 3.15 数值稳定性和模型初始化 77
      • 3.15.1 衰减和爆炸 77
      • 3.15.2 随机初始化模型参数 78
      • 小结 78
      • 练习 79
      • 3.16 实战Kaggle比赛:房价预测 79
      • 3.16.1 Kaggle比赛 79
      • 3.16.2 读取数据集 80
      • 3.16.3 预处理数据集 81
      • 3.16.4 训练模型 82
      • 3.16.5 k 折交叉验证 82
      • 3.16.6 模型选择 83
      • 3.16.7 预测并在Kaggle提交结果 84
      • 小结 85
      • 练习 85
      • 第4 章 深度学习计算 86
      • 4.1 模型构造 86
      • 4.1.1 继承Block类来构造模型 86
      • 4.1.2 Sequential类继承自Block类 87
      • 4.1.3 构造复杂的模型 88
      • 小结 89
      • 练习 90
      • 4.2 模型参数的访问、初始化和共享 90
      • 4.2.1 访问模型参数 90
      • 4.2.2 初始化模型参数 92
      • 4.2.3 自定义初始化方法 93
      • 4.2.4 共享模型参数 94
      • 小结 94
      • 练习 94
      • 4.3 模型参数的延后初始化 95
      • 4.3.1 延后初始化 95
      • 4.3.2 避免延后初始化 96
      • 小结 96
      • 练习 97
      • 4.4 自定义层 97
      • 4.4.1 不含模型参数的自定义层 97
      • 4.4.2 含模型参数的自定义层 98
      • 小结 99
      • 练习 99
      • 4.5 读取和存储 99
      • 4.5.1 读写NDArray 99
      • 4.5.2 读写Gluon模型的参数 100
      • 小结 101
      • 练习 101
      • 4.6 GPU计算 101
      • 4.6.1 计算设备 102
      • 4.6.2 NDArray的GPU计算 102
      • 4.6.3 Gluon的GPU计算 104
      • 小结 105
      • 练习 105
      • 第5 章 卷积神经网络 106
      • 5.1 二维卷积层 106
      • 5.1.1 二维互相关运算 106
      • 5.1.2 二维卷积层 107
      • 5.1.3 图像中物体边缘检测 108
      • 5.1.4 通过数据学习核数组 109
      • 5.1.5 互相关运算和卷积运算 109
      • 5.1.6 特征图和感受野 110
      • 小结 110
      • 练习 110
      • 5.2 填充和步幅 111
      • 5.2.1 填充 111
      • 5.2.2 步幅 112
      • 小结 113
      • 练习 113
      • 5.3 多输入通道和多输出通道 114
      • 5.3.1 多输入通道 114
      • 5.3.2 多输出通道 115
      • 5.3.3 1×1卷积层 116
      • 小结 117
      • 练习 117
      • 5.4 池化层 117
      • 5.4.1 二维最大池化层和平均池化层 117
      • 5.4.2 填充和步幅 119
      • 5.4.3 多通道 120
      • 小结 120
      • 练习 121
      • 5.5 卷积神经网络(LeNet) 121
      • 5.5.1 LeNet模型 121
      • 5.5.2 训练模型 122
      • 小结 124
      • 练习 124
      • 5.6 深度卷积神经网络(AlexNet) 124
      • 5.6.1 学习特征表示 125
      • 5.6.2 AlexNet 126
      • 5.6.3 读取数据集 127
      • 5.6.4 训练模型 128
      • 小结 128
      • 练习 129
      • 5.7 使用重复元素的网络(VGG) 129
      • 5.7.1 VGG块 129
      • 5.7.2 VGG网络 129
      • 5.7.3 训练模型 130
      • 小结 131
      • 练习 131
      • 5.8 网络中的网络(NiN) 131
      • 5.8.1 NiN块 131
      • 5.8.2 NiN模型 132
      • 5.8.3 训练模型 133
      • 小结 134
      • 练习 134
      • 5.9 含并行连结的网络(GoogLeNet) 134
      • 5.9.1 Inception块 134
      • 5.9.2 GoogLeNet模型 135
      • 5.9.3 训练模型 137
      • 小结 137
      • 练习 137
      • 5.10 批量归一化 138
      • 5.10.1 批量归一化层 138
      • 5.10.2 从零开始实现 139
      • 5.10.3 使用批量归一化层的LeNet 140
      • 5.10.4 简洁实现 141
      • 小结 142
      • 练习 142
      • 5.11 残差网络(ResNet) 143
      • 5.11.1 残差块 143
      • 5.11.2 ResNet模型 145
      • 5.11.3 训练模型 146
      • 小结 146
      • 练习 146
      • 5.12 稠密连接网络(DenseNet) 147
      • 5.12.1 稠密块 147
      • 5.12.2 过渡层 148
      • 5.12.3 DenseNet模型 148
      • 5.12.4 训练模型 149
      • 小结 149
      • 练习 149
      • 第6 章 循环神经网络 150
      • 6.1 语言模型 150
      • 6.1.1 语言模型的计算 151
      • 6.1.2 n 元语法 151
      • 小结 152
      • 练习 152
      • 6.2 循环神经网络 152
      • 6.2.1 不含隐藏状态的神经网络 152
      • 6.2.2 含隐藏状态的循环神经网络 152
      • 6.2.3 应用:基于字符级循环神经网络的语言模型 154
      • 小结 155
      • 练习 155
      • 6.3 语言模型数据集(歌词) 155
      • 6.3.1 读取数据集 155
      • 6.3.2 建立字符索引 156
      • 6.3.3 时序数据的采样 156
      • 小结 158
      • 练习 159
      • 6.4 循环神经网络的从零开始实现 159
      • 6.4.1 one-hot向量 159
      • 6.4.2 初始化模型参数 160
      • 6.4.3 定义模型 160
      • 6.4.4 定义预测函数 161
      • 6.4.5 裁剪梯度 161
      • 6.4.6 困惑度 162
      • 6.4.7 定义模型训练函数 162
      • 6.4.8 训练模型并创作歌词 163
      • 小结 164
      • 练习 164
      • 6.5 循环神经网络的简洁实现 165
      • 6.5.1 定义模型 165
      • 6.5.2 训练模型 166
      • 小结 168
      • 练习 168
      • 6.6 通过时间反向传播 168
      • 6.6.1 定义模型 168
      • 6.6.2 模型计算图 169
      • 6.6.3 方法 169
      • 小结 170
      • 练习 170
      • 6.7 门控循环单元(GRU) 170
      • 6.7.1 门控循环单元 171
      • 6.7.2 读取数据集 173
      • 6.7.3 从零开始实现 173
      • 6.7.4 简洁实现 175
      • 小结 176
      • 练习 176
      • 6.8 长短期记忆(LSTM) 176
      • 6.8.1 长短期记忆 176
      • 6.8.2 读取数据集 179
      • 6.8.3 从零开始实现 179
      • 6.8.4 简洁实现 181
      • 小结 181
      • 练习 182
      • 6.9 深度循环神经网络 182
      • 小结 183
      • 练习 183
      • 6.10 双向循环神经网络 183
      • 小结 184
      • 练习 184
      • 第7 章 优化算法 185
      • 7.1 优化与深度学习 185
      • 7.1.1 优化与深度学习的关系 185
      • 7.1.2 优化在深度学习中的挑战 186
      • 小结 188
      • 练习 189
      • 7.2 梯度下降和随机梯度下降 189
      • 7.2.1 一维梯度下降 189
      • 7.2.2 学习率 190
      • 7.2.3 多维梯度下降 191
      • 7.2.4 随机梯度下降 193
      • 小结 194
      • 练习 194
      • 7.3 小批量随机梯度下降 194
      • 7.3.1 读取数据集 195
      • 7.3.2 从零开始实现 196
      • 7.3.3 简洁实现 198
      • 小结 199
      • 练习 199
      • 7.4 动量法 200
      • 7.4.1 梯度下降的问题 200
      • 7.4.2 动量法 201
      • ·6· 目 录
      • 7.4.3 从零开始实现 203
      • 7.4.4 简洁实现 205
      • 小结 205
      • 练习 205
      • 7.5 AdaGrad算法206
      • 7.5.1 算法 206
      • 7.5.2 特点 206
      • 7.5.3 从零开始实现 208
      • 7.5.4 简洁实现 209
      • 小结 209
      • 练习 209
      • 7.6 RMSProp算法 209
      • 7.6.1 算法 210
      • 7.6.2 从零开始实现 211
      • 7.6.3 简洁实现 212
      • 小结 212
      • 练习 212
      • 7.7 AdaDelta算法 212
      • 7.7.1 算法 212
      • 7.7.2 从零开始实现 213
      • 7.7.3 简洁实现 214
      • 小结 214
      • 练习 214
      • 7.8 Adam算法 215
      • 7.8.1 算法 215
      • 7.8.2 从零开始实现 216
      • 7.8.3 简洁实现 216
      • 小结 217
      • 练习 217
      • 第8 章 计算性能 218
      • 8.1 命令式和符号式混合编程 218
      • 8.1.1 混合式编程取两者之长 220
      • 8.1.2 使用HybridSequential类构造模型 220
      • 8.1.3 使用HybridBlock类构造模型 222
      • 小结 224
      • 练习 224
      • 8.2 异步计算 224
      • 8.2.1 MXNet中的异步计算 224
      • 8.2.2 用同步函数让前端等待计算结果 226
      • 8.2.3 使用异步计算提升计算性能 226
      • 8.2.4 异步计算对内存的影响 227
      • 小结 229
      • 练习 229
      • 8.3 自动并行计算 229
      • 8.3.1 CPU和GPU的并行计算 230
      • 8.3.2 计算和通信的并行计算 231
      • 小结 231
      • 练习 231
      • 8.4 多GPU计算 232
      • 8.4.1 数据并行 232
      • 8.4.2 定义模型 233
      • 8.4.3 多GPU之间同步数据 234
      • 8.4.4 单个小批量上的多GPU训练 236
      • 8.4.5 定义训练函数 236
      • 8.4.6 多GPU训练实验 237
      • 小结 237
      • 练习 237
      • 8.5 多GPU计算的简洁实现 237
      • 8.5.1 多GPU上初始化模型参数 238
      • 8.5.2 多GPU训练模型 239
      • 小结 241
      • 练习 241
      • 第9 章 计算机视觉 242
      • 9.1 图像增广242
      • 9.1.1 常用的图像增广方法 243
      • 9.1.2 使用图像增广训练模型 246
      • 小结 250
      • 练习 250
      • 9.2 微调 250
      • 热狗识别 251
      • 小结 255
      • 练习 255
      • 目 录 ·7·
      • 9.3 目标检测和边界框 255
      • 边界框 256
      • 小结 257
      • 练习 257
      • 9.4 锚框 257
      • 9.4.1 生成多个锚框 257
      • 9.4.2 交并比 259
      • 9.4.3 标注训练集的锚框 260
      • 9.4.4 输出预测边界框 263
      • 小结 265
      • 练习 265
      • 9.5 多尺度目标检测 265
      • 小结 268
      • 练习 268
      • 9.6 目标检测数据集(皮卡丘) 268
      • 9.6.1 获取数据集 269
      • 9.6.2 读取数据集 269
      • 9.6.3 图示数据 270
      • 小结 270
      • 练习 271
      • 9.7 单发多框检测(SSD) 271
      • 9.7.1 定义模型 271
      • 9.7.2 训练模型 275
      • 9.7.3 预测目标 277
      • 小结 278
      • 练习 278
      • 9.8 区域卷积神经网络(R-CNN)系列280
      • 9.8.1 R-CNN 280
      • 9.8.2 Fast R-CNN 281
      • 9.8.3 Faster R-CNN 283
      • 9.8.4 Mask R-CNN 284
      • 小结 285
      • 练习 285
      • 9.9 语义分割和数据集 285
      • 9.9.1 图像分割和实例分割 285
      • 9.9.2 Pascal VOC2012语义分割数据集 286
      • 小结 290
      • 练习 290
      • 9.10 全卷积网络(FCN) 290
      • 9.10.1 转置卷积层 291
      • 9.10.2 构造模型 292
      • 9.10.3 初始化转置卷积层 294
      • 9.10.4 读取数据集 295
      • 9.10.5 训练模型 296
      • 9.10.6 预测像素类别 296
      • 小结 297
      • 练习 297
      • 9.11 样式迁移 298
      • 9.11.1 方法 298
      • 9.11.2 读取内容图像和样式图像 299
      • 9.11.3 预处理和后处理图像 300
      • 9.11.4 抽取特征 301
      • 9.11.5 定义损失函数 302
      • 9.11.6 创建和初始化合成图像 303
      • 9.11.7 训练模型 304
      • 小结 306
      • 练习 306
      • 9.12 实战Kaggle比赛:图像
      • 分类(CIFAR-10)306
      • 9.12.1 获取和整理数据集 307
      • 9.12.2 图像增广 310
      • 9.12.3 读取数据集 310
      • 9.12.4 定义模型 311
      • 9.12.5 定义训练函数 312
      • 9.12.6 训练模型 312
      • 9.12.7 对测试集分类并在Kaggle
      • 提交结果 313
      • 小结 313
      • 练习 313
      • 9.13 实战Kaggle比赛:狗的品种
      • 识别(ImageNet Dogs) 314
      • 9.13.1 获取和整理数据集 315
      • 9.13.2 图像增广 316
      • 9.13.3 读取数据集 317
      • 9.13.4 定义模型 318
      • 9.13.5 定义训练函数 318
      • 9.13.6 训练模型 319
      • ·8· 目 录
      • 9.13.7 对测试集分类并在Kaggle提交结果 319
      • 小结 320
      • 练习 320
      • 第 10 章 自然语言处理 321
      • 10.1 词嵌入(word2vec) 321
      • 10.1.1 为何不采用one-hot向量 321
      • 10.1.2 跳字模型 322
      • 10.1.3 连续词袋模型 323
      • 小结 325
      • 练习 325
      • 10.2 近似训练325
      • 10.2.1 负采样 325
      • 10.2.2 层序softmax 326
      • 小结 327
      • 练习 328
      • 10.3 word2vec的实现328
      • 10.3.1 预处理数据集 328
      • 10.3.2 负采样 331
      • 10.3.3 读取数据集 331
      • 10.3.4 跳字模型 332
      • 10.3.5 训练模型 333
      • 10.3.6 应用词嵌入模型 335
      • 小结 336
      • 练习 336
      • 10.4 子词嵌入(fastText) 336
      • 小结 337
      • 练习 337
      • 10.5 全局向量的词嵌入(GloVe)337
      • 10.5.1 GloVe模型 338
      • 10.5.2 从条件概率比值理解GloVe模型 339
      • 小结 340
      • 练习 340
      • 10.6 求近义词和类比词340
      • 10.6.1 使用预训练的词向量 340
      • 10.6.2 应用预训练词向量 341
      • 小结 343
      • 练习 343
      • 10.7 文本情感分类:使用循环神经网络 343
      • 10.7.1 文本情感分类数据集 343
      • 10.7.2 使用循环神经网络的模型 345
      • 小结 347
      • 练习 347
      • 10.8 文本情感分类:使用卷积神经网络(textCNN) 347
      • 10.8.1 一维卷积层 348
      • 10.8.2 时序最大池化层 349
      • 10.8.3 读取和预处理IMDb数据集 350
      • 10.8.4 textCNN模型 350
      • 小结 353
      • 练习 353
      • 10.9 编码器-解码器(seq2seq)353
      • 10.9.1 编码器 354
      • 10.9.2 解码器 354
      • 10.9.3 训练模型 355
      • 小结 355
      • 练习 355
      • 10.10 束搜索 355
      • 10.10.1 贪婪搜索 356
      • 10.10.2 穷举搜索 357
      • 10.10.3 束搜索 357
      • 小结 358
      • 练习 358
      • 10.11 注意力机制 358
      • 10.11.1 计算背景变量 359
      • 10.11.2 更新隐藏状态 360
      • 10.11.3 发展 361
      • 小结 361
      • 练习 361
      • 10.12 机器翻译 361
      • 10.12.1 读取和预处理数据集 361
      • 10.12.2 含注意力机制的编码器-解码器 363
      • 10.12.3 训练模型 365
      • 10.12.4 预测不定长的序列 367
      • 10.12.5 评价翻译结果 367
      • 小结 369
      • 练习 369
      • 附录A 数学基础 370
      • 附录B 使用 Jupyter 记事本 376
      • 附录C 使用 AWS 运行代码 381
      • 附录D GPU 购买指南 388
      • 附录E 如何为本书做贡献 391
      • 附录F d2lzh 包索引 395
      • 附录G 中英文术语对照表 397
      • 参考文献 402
      • 索引 407

      学习笔记

      《Python深度学习》书评、读书笔记

      读者评价一 现阶段最浅显易懂的深度学习新手入门书,由Keras鼻祖落笔。高手不仅技术性能得,文采都不通常,确实就是说以便让尽量多的人可以应用深度学习而写的这这书,包含了深度学习的基本知识、Keras应用方式及其深度学习最好实践活动。 学习培训这书必须具有基本的PHP专业知识,但不用深度学习或是深度学习工作经验,也不用深奥的数学知识,高中数学水准得以看懂这书。 读者评价二 这这书从6月12号那一天老总递到我手上,到今日恰好六周,你在期内我逐字逐句地啃了这这书,并在每星期的星期二和星期五中午给组里的别人讲这这书,每一次讲3个钟头。直至5分钟前不久说完最终一章,写……

      python开启摄像头以及深度学习实现目标检测方法

      最近想做实时目标检测,需要用到python开启摄像头,我手上只有两个uvc免驱的摄像头,性能一般。利用python开启摄像头费了一番功夫,主要原因是我的摄像头都不能用cv2的VideCapture打开,这让我联想到原来opencv也打不开Android手机上的摄像头(后来采用QML的Camera模块实现的)。看来opencv对于摄像头的兼容性仍然不是很完善。 我尝了几种办法:v4l2,v4l2_capture以及simpleCV,都打不开。最后采用pygame实现了摄像头的采集功能,这里直接给大家分享具体实现代码(python3.6,cv2,opencv3.3,ubuntu16.04)。中间注释的部分是我上述方法打开摄像头的尝试,说不定有适合自己的。 import pygame.cameraimport timeimport pygameimport c……

      13个最常用的Python深度学习库介绍

      如果你对深度学习和卷积神经网络感兴趣,但是并不知道从哪里开始,也不知道使用哪种库,那么这里就为你提供了许多帮助。 在这篇文章里,我详细解读了9个我最喜欢的Python深度学习库。 这个名单并不详尽,它只是我在计算机视觉的职业生涯中使用并在某个时间段发现特别有用的一个库的列表。 这其中的一些库我比别人用的多很多,尤其是Keras、mxnet和sklearn-theano。 其他的一些我是间接的使用,比如Theano和TensorFlow(库包括Keras、deepy和Blocks等)。 另外的我只是在一些特别的任务中用过(比如nolearn和他们的Deep Belief Network implementation)。 这篇文章的目的是向你介绍这些库。我建议你认真了解这里的每……

      PyTorch的深度学习入门之PyTorch安装和配置

      前言 深度神经网络是一种目前被广泛使用的工具,可以用于图像识别、分类,物体检测,机器翻译等等。深度学习(DeepLearning)是一种学习神经网络各种参数的方法。因此,我们将要介绍的深度学习,指的是构建神经网络结构,并且运用各种深度学习算法训练网络参数,进而解决各种任务。本文从PyTorch环境配置开始。PyTorch是一种Python接口的深度学习框架,使用灵活,学习方便。还有其他主流的深度学习框架,例如Caffe,TensorFlow,CNTK等等,各有千秋。笔者认为,初期学习还是选择一种入门,不要期望全都学会。须知,发力集中才能深入挖掘。乱花渐欲迷人眼,选择适合自己的,从一而终,相信会对科……

      以上就是本次介绍的深度学习电子书的全部相关内容,希望我们整理的资源能够帮助到大家,感谢大家对码农之家的支持。

      上一篇:Spring Boot+Spring Cloud+Vue+Element项目实战:手把手教你开发权限管理系统

      下一篇:华为交换机学习指南(华为ICT认证系列丛书2)

      展开 +

      收起 -

      • 《动手学深度学习》PDF下载

      码小辫

      重要!版权问题,本电子书取消了本地下载!

      需要的朋友可以关注左边的微信号,发送 电子书名关键字 (例如:python 算法……)

      如果找不到可以联系小辫(微信:maxiaobian1024)

      深度学习相关电子书
      深度学习框架PyTorch:入门与实践
      深度学习框架PyTorch:入门与实践 超清完整版

      本书媲美TensorFlow的深度学习框架!从多维数组Tensor开始,循序渐进地带领读者了解PyTorch各方面的基础知识,包含实战Kaggle竞赛中经典项目、GAN生成动漫头像、AI滤镜、RNN写诗、图像描述任务等

      立即下载
      大数据架构详解:从数据获取到深度学习
      大数据架构详解:从数据获取到深度学习 高清版

      《大数据架构详解:从数据获取到深度学习》 从架构、业务、技术三个维度深入浅出地介绍了大数据处理领域端到端的知识。主要内容包括三部分:第一部分从数据的产生、采集、计算、存储

      立即下载
      神经网络与深度学习应用实战
      神经网络与深度学习应用实战 高清扫描版

      本书结合实际应用介绍神经网络和深度学习等技术领域相关信息。从结构上重点介绍了前馈型神经网络、反馈型神经网络,以及自组织竞争型神经网络,并针对当下深度学习中比较重要的网络进

      立即下载
      PyTorch深度学习
      PyTorch深度学习 原书超清版

      深度学习为全世界的智能控制系统(例如GoogleVoice、Siri和Alexa)出示了驱动力。随之硬件配置(如GPU)和手机软件架构(如PyTorch、Keras、TensorFlow和CNTK)的发展及其互联网大数据的易用性,大家

      立即下载
      深度学习算法实践(基于Theano和TensorFlow)
      深度学习算法实践(基于Theano和TensorFlow) 完整影印版

      1.中科院院士工程院院士陈志杰倾心作序,业内专家黄文涛、陈晓禾联手力荐。 2.以深度学习算法新手入门为主题思想,以NumPy、SciPy等科学计算库,深度神经网络流行优化算法,深度神经网络

      立即下载
      深度学习:Caffe之经典模型详解与实战
      深度学习:Caffe之经典模型详解与实战 高清版

      《深度学习Caffe之经典模型详解与实战》 首先介绍了深度学习相关的理论和主流的深度学习框架,然后从Caffe深度学习框架为切入点,介绍了Caffe的安装、配置、编译和接口等运行环境,剖析

      立即下载
      深度学习实战
      深度学习实战 全书完整版

      1.这书去繁化简地对深度神经网络的基础知识开展整理,并对优化算法保持作出通俗易懂的解读,便捷新手学习培训。 2.这书用心选择很多深度神经网络的实例,根据启发式的通过自学方式,使

      立即下载
      深度学习导论及案例分析
      深度学习导论及案例分析 原书清晰版

      本书介绍了深度学习的起源和发展、强调了深层网络的特点和优势,详述了深度学习的9种重要模型及其学习算法、变种模型和混杂模型,可作为具备神经网络基础知识后进一步了解深度学习理论和方法的入门教材或导论性参考书

      立即下载
      读者留言
      码农之家

      码农之家 提供上传

      资源
      26
      粉丝
      27
      喜欢
      246
      评论
      5

      Copyright 2018-2020 www.xz577.com 码农之家

      投诉 / 推广 / 赞助:QQ:520161757