当前位置:主页 > 书籍配套资源 > Python配套资源
《Python深度学习:模型、方法与实现》源代码,配书资源

《Python深度学习:模型、方法与实现》源代码,配书资源

  • 更新:2021-12-12
  • 大小:73.5 MB
  • 类别:Python
  • 作者:[保加利亚]伊凡·瓦西列夫(Ivan、Vasilev)
  • 出版:机械工业出版社
  • 格式:PDF

  • 资源介绍
  • 相关推荐

本书集合了基于应用领域的高级深度学习的模型、方法和实现。本书分为四部分。

第1部分介绍了深度学习的构建和神经网络背后的数学知识。

第二部分讨论深度学习在计算机视觉领域的应用。

第三部分阐述了自然语言和序列处理。讲解了使用神经网络提取复杂的单词向量表示。讨论了各种类型的循环网络,如长短期记忆网络和门控循环单元网络。

第四部分介绍一些虽然还没有被广泛采用但有前途的深度学习技术,包括如何在自动驾驶上应用深度学习。学完本书,读者将掌握与深度学习相关的关键概念,学会如何使用TensorFlow和PyTorch实现相应的AI解决方案。

封面图

目录

  • 译者序
  • 前言
  • 作者简介
  • 审校者简介
  • 第一部分核心概念
  • 第1章神经网络的具体细节2
  • 1.1神经网络的数学基础2
  • 1.1.1线性代数2
  • 1.1.2概率介绍6
  • 1.1.3微分学16
  • 1.2神经网络的简单介绍18
  • 1.2.1神经元18
  • 1.2.2层的运算19
  • 1.2.3神经网络21
  • 1.2.4激活函数22
  • 1.2.5通用逼近定理25
  • 1.3训练神经网络27
  • 1.3.1梯度下降27
  • 1.3.2代价函数28
  • 1.3.3反向传播30
  • 1.3.4权重初始化32
  • 1.3.5SGD改进33
  • 1.4总结35
  • 第二部分计算机视觉
  • 第2章理解卷积网络38
  • 2.1理解CNN38
  • 2.1.1卷积类型43
  • 2.1.2提高CNN的效率46
  • 2.1.3可视化CNN51
  • 2.1.4CNN正则化54
  • 2.2迁移学习介绍56
  • 2.2.1使用PyTorch实现迁移学习57
  • 2.2.2使用TensorFlow 2.0实现迁移学习62
  • 2.3总结66
  • 第3章高级卷积网络67
  • 3.1AlexNet介绍67
  • 3.2VGG介绍68
  • 3.3理解残差网络70
  • 3.4理解Inception网络78
  • 3.4.1Inception v179
  • 3.4.2Inception v2和v380
  • 3.4.3Inception v4和InceptionResNet81
  • 3.5Xception介绍82
  • 3.6MobileNet介绍83
  • 3.7DenseNet介绍85
  • 3.8神经架构搜索的工作原理87
  • 3.9胶囊网络介绍91
  • 3.9.1卷积网络的局限性91
  • 3.9.2胶囊92
  • 3.9.3胶囊网络的结构94
  • 3.10总结95
  • 第4章对象检测与图像分割96
  • 4.1对象检测介绍96
  • 4.1.1对象检测的方法96
  • 4.1.2使用YOLO v3进行对象检测98
  • 4.1.3使用Faster RCNN进行对象检测104
  • 4.2图像分割介绍110
  • 4.2.1使用UNet进行语义分割110
  • 4.2.2使用Mask RCNN进行实例分割112
  • 4.3总结115
  • 第5章生成模型116
  • 5.1生成模型的直觉和证明116
  • 5.2VAE介绍117
  • 5.3GAN介绍124
  • 5.3.1训练GAN125
  • 5.3.2实现GAN128
  • 5.3.3训练GAN的缺陷129
  • 5.4GAN的类型129
  • 5.4.1DCGAN130
  • 5.4.2CGAN135
  • 5.4.3WGAN137
  • 5.4.4使用CycleGAN实现图像到图像的转换142
  • 5.5艺术风格迁移介绍150
  • 5.6总结151
  • 第三部分自然语言和序列处理
  • 第6章语言建模154
  • 6.1理解ngram154
  • 6.2神经语言模型介绍156
  • 6.2.1神经概率语言模型157
  • 6.2.2word2vec158
  • 6.2.3GloVe模型161
  • 6.3实现语言模型164
  • 6.3.1训练嵌入模型164
  • 6.3.2可视化嵌入向量166
  • 6.4总结169
  • 第7章理解RNN170
  • 7.1RNN介绍170
  • 7.2长短期记忆介绍180
  • 7.3门控循环单元介绍187
  • 7.4实现文本分类189
  • 7.5总结193
  • 第8章seq2seq模型和注意力机制194
  • 8.1seq2seq模型介绍194
  • 8.2使用注意力的seq2seq196
  • 8.2.1Bahdanau Attention196
  • 8.2.2Luong Attention199
  • 8.2.3一般注意力200
  • 8.2.4使用注意力实现seq2seq201
  • 8.3理解transformer207
  • 8.3.1transformer注意力207
  • 8.3.2transformer模型210
  • 8.3.3实现transformer212
  • 8.4transformer语言模型219
  • 8.4.1基于transformer的双向编码器表示219
  • 8.4.2transformerXL224
  • 8.4.3XLNet227
  • 8.4.4使用transformer语言模型生成文本230
  • 8.5总结231
  • 第四部分展望未来
  • 第9章新兴的神经网络设计234
  • 9.1GNN介绍234
  • 9.1.1循环GNN236
  • 9.1.2卷积图神经网络238
  • 9.1.3图自编码器244
  • 9.1.4神经图学习246
  • 9.2记忆增强神经网络介绍251
  • 9.2.1神经图灵机251
  • 9.2.2MANN*256
  • 9.3总结257
  • 第10章元学习258
  • 10.1元学习介绍258
  • 10.1.1零样本学习259
  • 10.1.2单样本学习260
  • 10.1.3元训练和元测试261
  • 10.2基于度量的元学习262
  • 10.2.1为单样本学习匹配网络263
  • 10.2.2孪生网络264
  • 10.2.3原型网络267
  • 10.3基于优化的元学习269
  • 10.4总结274
  • 第11章自动驾驶汽车的深度学习275
  • 11.1自动驾驶汽车介绍275
  • 11.1.1自动驾驶汽车研究简史275
  • 11.1.2自动化的级别277
  • 11.2自动驾驶汽车系统的组件278
  • 11.2.1环境感知280
  • 11.2.2路径规划282
  • 11.33D数据处理介绍282
  • 11.4模仿驾驶策略285
  • 11.5ChauffeurNet驾驶策略294
  • 11.5.1输入/输出表示294
  • 11.5.2模型架构296
  • 11.5.3训练297
  • 11.6总结300

资源下载

资源下载地址1:https://pan.baidu.com/s/12y_TLWJxdyBakYf05C7JBg

网友留言