当前位置:首页 > 人工智能 >
《深度学习入门之PyTorch》电子书封面

深度学习入门之PyTorch

  • 发布时间:2020年05月07日 09:27:05
  • 作者:廖星宇
  • 大小:59.3 MB
  • 类别:深度学习电子书
  • 格式:PDF
  • 版本:完整超清版
  • 评分:9.5

    深度学习入门之PyTorch PDF 完整超清版

      给大家带来的一篇关于深度学习相关的电子书资源,介绍了关于深度学习、PyTorch方面的内容,本书是由电子工业出版社出版,格式为PDF,资源大小59.3 MB,廖星宇编写,目前豆瓣、亚马逊、当当、京东等电子书综合评分为:7.3分

      Tags:深度学习 pytorch 

      内容介绍

      1创作者自身也是自小白刚开始新手入门深度学习的,不管从书里內容,還是解读思路,及其语言特点,均合适你从零开始进到深度学习这一填满魔法的全球。

      2案例简易而不简洁,采用了转化成对抗网络和注意力机制等现阶段相对性最前沿的深度学习技术性。

      3尽管是一本基础教程,可是对基本原理的叙述也是非分明,清楚通俗易懂,让阅读者能知其所以然且学有所用。

      深度学习现如今早已变成了尖端科技*趋之若鹜的技术性,在这书中,大家将协助你新手入门深度学习的行业。这书将从人工智能技术的详细介绍下手,掌握机器学习和深度学习的基础知识,并学习怎样用PyTorch架构模型拟合开展构建。根据阅读文章这书,你可能学习到机器学习中的线性回归和logistic重归,深度学习的优化方法,双层全连接神经网络,卷积神经网络,循环系统神经网络及其转化成对抗网络,另外从零开始对PyTorch开展学习,掌握PyTorch基本及怎样用其开展实体模型的构建,*后根据实战演练掌握*最前沿的科研成果和PyTorch在具体新项目中的运用。

      目录

      • 第1 章深度学习介绍1
      • 1.1 人工智能. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
      • 1.2 数据挖掘、机器学习与深度学习. . . . . . . . . . . . . . . . . . . . . . . 2
      • 1.2.1 数据挖掘. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
      • 1.2.2 机器学习. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
      • 1.2.3 深度学习. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
      • 1.3 学习资源与建议. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
      • 第2 章深度学习框架11
      • 2.1 深度学习框架介绍. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
      • 2.2 PyTorch 介绍. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
      • 2.2.1 什么是PyTorch . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
      • 2.2.2 为何要使用PyTorch . . . . . . . . . . . . . . . . . . . . . . . . . . 14
      • 2.3 配置PyTorch 深度学习环境. . . . . . . . . . . . . . . . . . . . . . . . . . 15
      • 2.3.1 操作系统的选择. . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
      • 2.3.2 Python 开发环境的安装. . . . . . . . . . . . . . . . . . . . . . . . 16
      • 2.3.3 PyTorch 的安装. . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
      • 第3 章多层全连接神经网络24
      • 3.1 热身:PyTorch 基础. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
      • 3.1.1 Tensor(张量) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
      • 3.1.2 Variable(变量) . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
      • 3.1.3 Dataset(数据集) . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
      • 3.1.4 nn.Module(模组) . . . . . . . . . . . . . . . . . . . . . . . . . . 29
      • 3.1.5 torch.optim(优化) . . . . . . . . . . . . . . . . . . . . . . . . . . 30
      • 3.1.6 模型的保存和加载. . . . . . . . . . . . . . . . . . . . . . . . . . 31
      • 3.2 线性模型. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
      • 3.2.1 问题介绍. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
      • 3.2.2 一维线性回归. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
      • 3.2.3 多维线性回归. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
      • 3.2.4 一维线性回归的代码实现. . . . . . . . . . . . . . . . . . . . . . 35
      • 3.2.5 多项式回归. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
      • 3.3 分类问题. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
      • 3.3.1 问题介绍. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
      • 3.3.2 Logistic 起源. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
      • 3.3.3 Logistic 分布. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
      • 3.3.4 二分类的Logistic 回归. . . . . . . . . . . . . . . . . . . . . . . . 43
      • 3.3.5 模型的参数估计. . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
      • 3.3.6 Logistic 回归的代码实现. . . . . . . . . . . . . . . . . . . . . . . 45
      • 3.4 简单的多层全连接前向网络. . . . . . . . . . . . . . . . . . . . . . . . . 49
      • 3.4.1 模拟神经元. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
      • 3.4.2 单层神经网络的分类器. . . . . . . . . . . . . . . . . . . . . . . . 50
      • 3.4.3 激活函数. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
      • 3.4.4 神经网络的结构. . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
      • 3.4.5 模型的表示能力与容量. . . . . . . . . . . . . . . . . . . . . . . . 55
      • 3.5 深度学习的基石:反向传播算法. . . . . . . . . . . . . . . . . . . . . . . 57
      • 3.5.1 链式法则. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
      • 3.5.2 反向传播算法. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
      • 3.5.3 Sigmoid 函数举例. . . . . . . . . . . . . . . . . . . . . . . . . . . 58
      • 3.6 各种优化算法的变式. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
      • 3.6.1 梯度下降法. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
      • 3.6.2 梯度下降法的变式. . . . . . . . . . . . . . . . . . . . . . . . . . 62
      • 3.7 处理数据和训练模型的技巧. . . . . . . . . . . . . . . . . . . . . . . . . 64
      • 3.7.1 数据预处理. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
      • 3.7.2 权重初始化. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
      • 3.7.3 防止过拟合. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
      • 3.8 多层全连接神经网络实现MNIST 手写数字分类. . . . . . . . . . . . . . 69
      • 3.8.1 简单的三层全连接神经网络. . . . . . . . . . . . . . . . . . . . . 70
      • 3.8.2 添加激活函数. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
      • 3.8.3 添加批标准化. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
      • 3.8.4 训练网络. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
      • 第4 章卷积神经网络76
      • 4.1 主要任务及起源. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
      • 4.2 卷积神经网络的原理和结构. . . . . . . . . . . . . . . . . . . . . . . . . 77
      • 4.2.1 卷积层. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
      • 4.2.2 池化层. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
      • 4.2.3 全连接层. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
      • 4.2.4 卷积神经网络的基本形式. . . . . . . . . . . . . . . . . . . . . . 85
      • 4.3 PyTorch 卷积模块. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
      • 4.3.1 卷积层. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
      • 4.3.2 池化层. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
      • 4.3.3 提取层结构. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
      • 4.3.4 如何提取参数及自定义初始化. . . . . . . . . . . . . . . . . . . . 91
      • 4.4 卷积神经网络案例分析. . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
      • 4.4.1 LeNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
      • 4.4.2 AlexNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
      • 4.4.3 VGGNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
      • 4.4.4 GoogLeNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
      • 4.4.5 ResNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
      • 4.5 再实现MNIST 手写数字分类. . . . . . . . . . . . . . . . . . . . . . . . . 103
      • 4.6 图像增强的方法. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
      • 4.7 实现cifar10 分类. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
      • 第5 章循环神经网络111
      • 5.1 循环神经网络. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
      • 5.1.1 问题介绍. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
      • 5.1.2 循环神经网络的基本结构. . . . . . . . . . . . . . . . . . . . . . 112
      • 5.1.3 存在的问题. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
      • 5.2 循环神经网络的变式:LSTM 与GRU . . . . . . . . . . . . . . . . . . . . 116
      • 5.2.1 LSTM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
      • 5.2.2 GRU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
      • 5.2.3 收敛性问题. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
      • 5.3 循环神经网络的PyTorch 实现. . . . . . . . . . . . . . . . . . . . . . . . 122
      • 5.3.1 PyTorch 的循环网络模块. . . . . . . . . . . . . . . . . . . . . . . 122
      • 5.3.2 实例介绍. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
      • 5.4 自然语言处理的应用. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
      • 5.4.1 词嵌入. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
      • 5.4.2 词嵌入的PyTorch 实现. . . . . . . . . . . . . . . . . . . . . . . . 133
      • 5.4.3 N Gram 模型. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
      • 5.4.4 单词预测的PyTorch 实现. . . . . . . . . . . . . . . . . . . . . . . 134
      • 5.4.5 词性判断. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
      • 5.4.6 词性判断的PyTorch 实现. . . . . . . . . . . . . . . . . . . . . . . 137
      • 5.5 循环神经网络

      以上就是本次介绍的深度学习电子书的全部相关内容,希望我们整理的资源能够帮助到大家,感谢大家对码农之家的支持。

      上一篇:R语言实战:机器学习与数据分析

      下一篇:网页制作与网站建设实战大全

      展开 +

      收起 -

      下载地址:百度网盘下载
      深度学习 相关电子书
      深度学习 21天实战Caffe
      深度学习 21天实战Caffe PDF 高清版

      《 深度学习:21天实战Caffe 》是一本深度学习入门读物。以目前已经大量用于线上系统的深度学习框架Caffe为例,由浅入深,从 Caffe 的配置、部署、使用开始学习,通过阅读Caffe源码理解其精髓

      立即下载
      深度学习与计算机视觉:算法原理 框架应用与代码实现
      深度学习与计算机视觉:算法原理 框架应用与代码实现 PDF 完整版

      《深度学习与计算机视觉:算法原理、框架应用与代码实现》 全面介绍了深度学习及计算机视觉中基础的知识,并结合常见的应用场景和大量实例,带领读者进入丰富多彩的计算机视觉领域。

      立即下载
      基于深度学习的网络安全态势评估方法 PDF 清晰版 立即下载
      深度学习:Java语言实现
      深度学习:Java语言实现 PDF 原版扫描版 立即下载
      PyTorch自然语言处理
      PyTorch自然语言处理 PDF 清晰版

      《PyTorch自然语言处理》 旨在为新人提供自然语言处理(NLP)和深度学习,以涵盖这两个领域的重要主题。这两个主题领域都呈指数级增长。对于一本介绍深度学习和强调实施的NLP的书,本书占据了重要的中间地带。在写这本书时,我们不得不对哪些材料遗漏做出艰难的,有时甚至是不舒服的选择。对于初学者,我们希望本书能够为基础知识提供强有力的基础,并可以瞥见可能的内容。特别是机器学习和深度学习是一种经验学科,而不是智力科学。我们

      立即下载
      PyTorch1.0 中文文档
      PyTorch1.0 中文文档 PDF 高清版

      PyTorch是一个开源的Python机器学习库,基于Torch,底层由C++实现,应用于人工智能领域,如自然语言处理。 这是一本开源的书籍,目标是帮助那些希望和使用 PyTorch 进行深度学习开发和研究的朋友快速入门。

      立即下载
      深度学习入门之PyTorch
      深度学习入门之PyTorch PDF 完整超清版 立即下载
      读者心得
      91小时21分钟前回答

      pytorch + visdom 处理简单分类问题的示例

      环境 系统 : win 10 显卡:gtx965m cpu :i7-6700HQ python 3.61 pytorch 0.3 包引用 import torchfrom torch.autograd import Variableimport torch.nn.functional as Fimport numpy as npimport visdomimport timefrom torch import nn,optim 数据准备 use_gpu = Trueones = np.ones((500,2))x1 = torch.normal(6*torch.from_numpy(ones),2)y1 = torch.zeros(500) x2 = torch.normal(6*torch.from_numpy(ones*[-1,1]),2)y2 = y1 +1x3 = torch.normal(-6*torch.from_numpy(ones),2)y3 = y1 +2x4 = torch.normal(6*torch.from_numpy(ones*[1,-1]),2)y4 = y1 +3 x = torch.cat((x1, x2, x3 ,x4), 0).float()y = torch.cat((y1, y2, y3, y4), ).long() 可视化如下看一下: visdom可视化准备 先建立需要观察的windows viz = visdom.Visdom()colors = np.random.randint(0,255,(4,3)) #颜色随机#线图用来观察loss……

      31小时10分钟前回答

      pytorch 使用单个GPU与多个GPU进行训练与测试的方法

      如下所示: device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")#第一行代码model.to(device)#第二行代码 首先是上面两行代码放在读取数据之前。 mytensor = my_tensor.to(device)#第三行代码 然后是第三行代码。这句代码的意思是将所有最开始读取数据时的tersor变量copy一份到device所指定的GPU上去,之后的运算都在GPU上进行。需要注意的是这句话并不像前面的两行代码一样只需要写一遍,第三行代码需要写的次数就等于需要保存到GPU上的tensor变量个数;一般情况下这些tensor变量都是最开始读取数据时的tensor变量,后面所衍生的变量自然也都在GPU之上。 以上是使用单个GPU的情况。当你拥有多个GPU时,要想使用多个……

      码农之家

      潘林帆 提供上传

      资源
      41
      粉丝
      8
      喜欢
      159
      评论
      9

      Copyright 2018-2021 www.xz577.com 码农之家

      版权投诉 / 书籍推广:520161757@qq.com