当前位置:首页 > 程序设计 > PyTorch电子书网盘下载
深度学习入门之PyTorch 深度学习入门之PyTorch
haofugui

haofugui 提供上传

资源
22
粉丝
22
喜欢
199
评论
16

    深度学习入门之PyTorch PDF 超清版

    PyTorch电子书
    • 发布时间:

    给大家带来的一篇关于PyTorch相关的电子书资源,介绍了关于深度学习、PyTorch方面的内容,本书是由电子工业出版社出版,格式为PDF,资源大小59.3 MB,廖星宇编写,目前豆瓣、亚马逊、当当、京东等电子书综合评分为:8.4,更多相关的学习资源可以参阅ForeverNetDevOpsRustScala编程改变div、等栏目。

  • 深度学习入门之PyTorch PDF 下载
  • 下载地址:https://pan.baidu.com/s/1V8KDW4fBqaQnkN6Gz5Irr
  • 提取码:bqo8
  • 1 创作者自身都是自小白刚开始新手入门深度神经网络的,不管从书中內容,還是解读构思,及其语言特点,均合适你从零开始进到深度神经网络这一填满魔法的全球。
    2 案例简洁明了而不简洁,采用了生成对抗网络和集中注意力体制等现阶段相对性最前沿的深度神经网络技术。
    3 尽管是一本基础教程,可是对基本原理的叙述也是非分明,清楚通俗易懂,让阅读者能知其所以然且知其然。
    深度神经网络现如今早已变成了尖端科技*趋之若鹜的技术,在这书中,人们将协助你新手入门深度神经网络的行业。这书将从人工智能技术的详细介绍下手,掌握深度学习和深度神经网络的基础知识,并学习培训怎样用PyTorch架构对模型开展构建。根据阅读文章这书,你将会学习培训到深度学习中的线性回归和logistic重归,深度神经网络的提升方式 ,双层全连接神经元网络,卷积神经网络,循环系统神经元网络及其生成对抗网络,另外从零开始对PyTorch开展学习培训,掌握PyTorch基本及怎样用其开展实体模型的构建,*后根据实战演练掌握*最前沿的科研成果和PyTorch在具体项目中的运用。

    目录

    • 第1 章深度学习介绍1
    • 1.1 人工智能. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
    • 1.2 数据挖掘、机器学习与深度学习. . . . . . . . . . . . . . . . . . . . . . . 2
    • 1.2.1 数据挖掘. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
    • 1.2.2 机器学习. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
    • 1.2.3 深度学习. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
    • 1.3 学习资源与建议. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
    • 第2 章深度学习框架11
    • 2.1 深度学习框架介绍. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
    • 2.2 PyTorch 介绍. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
    • 2.2.1 什么是PyTorch . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
    • 2.2.2 为何要使用PyTorch . . . . . . . . . . . . . . . . . . . . . . . . . . 14
    • 2.3 配置PyTorch 深度学习环境. . . . . . . . . . . . . . . . . . . . . . . . . . 15
    • 2.3.1 操作系统的选择. . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
    • 2.3.2 Python 开发环境的安装. . . . . . . . . . . . . . . . . . . . . . . . 16
    • 2.3.3 PyTorch 的安装. . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
    • 第3 章多层全连接神经网络24
    • 3.1 热身:PyTorch 基础. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
    • 3.1.1 Tensor(张量) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
    • 3.1.2 Variable(变量) . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
    • 3.1.3 Dataset(数据集) . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
    • 3.1.4 nn.Module(模组) . . . . . . . . . . . . . . . . . . . . . . . . . . 29
    • 3.1.5 torch.optim(优化) . . . . . . . . . . . . . . . . . . . . . . . . . . 30
    • 3.1.6 模型的保存和加载. . . . . . . . . . . . . . . . . . . . . . . . . . 31
    • 3.2 线性模型. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
    • 3.2.1 问题介绍. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
    • 3.2.2 一维线性回归. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
    • 3.2.3 多维线性回归. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
    • 3.2.4 一维线性回归的代码实现. . . . . . . . . . . . . . . . . . . . . . 35
    • 3.2.5 多项式回归. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
    • 3.3 分类问题. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
    • 3.3.1 问题介绍. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
    • 3.3.2 Logistic 起源. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
    • 3.3.3 Logistic 分布. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
    • 3.3.4 二分类的Logistic 回归. . . . . . . . . . . . . . . . . . . . . . . . 43
    • 3.3.5 模型的参数估计. . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
    • 3.3.6 Logistic 回归的代码实现. . . . . . . . . . . . . . . . . . . . . . . 45
    • 3.4 简单的多层全连接前向网络. . . . . . . . . . . . . . . . . . . . . . . . . 49
    • 3.4.1 模拟神经元. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
    • 3.4.2 单层神经网络的分类器. . . . . . . . . . . . . . . . . . . . . . . . 50
    • 3.4.3 激活函数. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
    • 3.4.4 神经网络的结构. . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
    • 3.4.5 模型的表示能力与容量. . . . . . . . . . . . . . . . . . . . . . . . 55
    • 3.5 深度学习的基石:反向传播算法. . . . . . . . . . . . . . . . . . . . . . . 57
    • 3.5.1 链式法则. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
    • 3.5.2 反向传播算法. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
    • 3.5.3 Sigmoid 函数举例. . . . . . . . . . . . . . . . . . . . . . . . . . . 58
    • 3.6 各种优化算法的变式. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
    • 3.6.1 梯度下降法. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
    • 3.6.2 梯度下降法的变式. . . . . . . . . . . . . . . . . . . . . . . . . . 62
    • 3.7 处理数据和训练模型的技巧. . . . . . . . . . . . . . . . . . . . . . . . . 64
    • 3.7.1 数据预处理. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
    • 3.7.2 权重初始化. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
    • 3.7.3 防止过拟合. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
    • 3.8 多层全连接神经网络实现MNIST 手写数字分类. . . . . . . . . . . . . . 69
    • 3.8.1 简单的三层全连接神经网络. . . . . . . . . . . . . . . . . . . . . 70
    • 3.8.2 添加激活函数. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
    • 3.8.3 添加批标准化. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
    • 3.8.4 训练网络. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
    • 第4 章卷积神经网络76
    • 4.1 主要任务及起源. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
    • 4.2 卷积神经网络的原理和结构. . . . . . . . . . . . . . . . . . . . . . . . . 77
    • 4.2.1 卷积层. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
    • 4.2.2 池化层. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
    • 4.2.3 全连接层. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
    • 4.2.4 卷积神经网络的基本形式. . . . . . . . . . . . . . . . . . . . . . 85
    • 4.3 PyTorch 卷积模块. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
    • 4.3.1 卷积层. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
    • 4.3.2 池化层. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
    • 4.3.3 提取层结构. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
    • 4.3.4 如何提取参数及自定义初始化. . . . . . . . . . . . . . . . . . . . 91
    • 4.4 卷积神经网络案例分析. . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
    • 4.4.1 LeNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
    • 4.4.2 AlexNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
    • 4.4.3 VGGNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
    • 4.4.4 GoogLeNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
    • 4.4.5 ResNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
    • 4.5 再实现MNIST 手写数字分类. . . . . . . . . . . . . . . . . . . . . . . . . 103
    • 4.6 图像增强的方法. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
    • 4.7 实现cifar10 分类. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
    • 第5 章循环神经网络111
    • 5.1 循环神经网络. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
    • 5.1.1 问题介绍. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
    • 5.1.2 循环神经网络的基本结构. . . . . . . . . . . . . . . . . . . . . . 112
    • 5.1.3 存在的问题. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
    • 5.2 循环神经网络的变式:LSTM 与GRU . . . . . . . . . . . . . . . . . . . . 116
    • 5.2.1 LSTM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
    • 5.2.2 GRU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
    • 5.2.3 收敛性问题. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
    • 5.3 循环神经网络的PyTorch 实现. . . . . . . . . . . . . . . . . . . . . . . . 122
    • 5.3.1 PyTorch 的循环网络模块. . . . . . . . . . . . . . . . . . . . . . . 122
    • 5.3.2 实例介绍. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
    • 5.4 自然语言处理的应用. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
    • 5.4.1 词嵌入. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
    • 5.4.2 词嵌入的PyTorch 实现. . . . . . . . . . . . . . . . . . . . . . . . 133
    • 5.4.3 N Gram 模型. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
    • 5.4.4 单词预测的PyTorch 实现. . . . . . . . . . . . . . . . . . . . . . . 134
    • 5.4.5 词性判断. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
    • 5.4.6 词性判断的PyTorch 实现. . . . . . . . . . . . . . . . . . . . . . . 137
    • 5.5 循环神经网络

    上一篇:通关!游戏设计之道  下一篇:如何打造成功的自媒体

    展开 +

    收起 -

     
    PyTorch 相关内容
    PyTorch深度学习

    深度学习为全世界的智能控制系统(例如GoogleVoice、Siri和Alexa)出示了驱动力。随之硬件配置(如GPU)和手机软件架构(如PyTorch、Keras、TensorFlow和CNTK)的发展及其互联网大数据的易用性,大家

    查看详情
    深度学习框架PyTorch:入门与实践

    本书媲美TensorFlow的深度学习框架!从多维数组Tensor开始,循序渐进地带领读者了解PyTorch各方面的基础知识,包含实战Kaggle竞赛中经典项目、GAN生成动漫头像、AI滤镜、RNN写诗、图像描述任务等

    查看详情
    PyTorch深度学习实战

    这本书从原理到实战、深入浅出地介绍了Facebook人工智能利器Pytorch的卓越表现,主要定位为具有一定Python编程基础,对机器学习和神经网络有一定了解的程序员们

    查看详情
    深度学习之PyTorch实战计算机视觉

    计算机视觉、自然语言处理和语音识别是目前深度学习领域很热门的三大应用方向,本书旨在帮助零基础或基础较为薄弱的读者入门深度学习,达到能够独立使用深度学习知识处理计算机视觉问

    查看详情
    21个项目玩转深度学习

    以实践为导向,深入介绍了深度学习技术和TensorFlow框架编程内容,包含图像识别、人脸识别、编写风格迁移应用、使用神经网络生成图像和文本、训练机器玩游戏等,使学习深度学习和TensorF

    查看详情
    深度学习入门:基于Python的理论与实现

    本书是深度学习真正意义上的入门书,深入浅出地剖析了深度学习的原理和相关技术。书中使用Python3,尽量不依赖外部库或工具,从基本的数学知识出发,带领读者从零创建一个经典的深度学

    查看详情
    深度学习之美:AI时代的数据处理与最佳实践

    零入门 | 高可读| 重实战 | 抓前沿!准受用的深度学习入门教程,集各项前沿技术之大成,含Hinton神经胶囊网络的详细解读!

    查看详情
    动手学深度学习 查看详情
    MATLAB计算机视觉与深度学习实战 查看详情
    深度学习实战

    1.这书去繁化简地对深度神经网络的基础知识开展整理,并对优化算法保持作出通俗易懂的解读,便捷新手学习培训。 2.这书用心选择很多深度神经网络的实例,根据启发式的通过自学方式,使

    查看详情
    《深度学习入门之PyTorch》学习笔记
    网友NO.347207

    pytorch中的embedding词向量的使用方法

    Embedding 词嵌入在 pytorch 中非常简单,只需要调用 torch.nn.Embedding(m, n) 就可以了,m 表示单词的总数目,n 表示词嵌入的维度,其实词嵌入就相当于是一个大矩阵,矩阵的每一行表示一个单词。 emdedding初始化 默认是随机初始化的 import torchfrom torch import nnfrom torch.autograd import Variable# 定义词嵌入embeds = nn.Embedding(2, 5) # 2 个单词,维度 5# 得到词嵌入矩阵,开始是随机初始化的torch.manual_seed(1)embeds.weight# 输出结果:Parameter containing:-0.8923 -0.0583 -0.1955 -0.9656 0.4224 0.2673 -0.4212 -0.5107 -1.5727 -0.1232[torch.FloatTensor of size 2x5] 如果从使用已经训练好的词向量,则采用 pretrained_weight = np.array(args.pretrained_weight) # 已有词向量的numpyself.embed.weight.data.copy_(torch.from_numpy(pretrained_weight)) embed的读取 读取一个向量。 注意参数只能是LongTensor型的 # 访问第 50 个词的词向量embeds = nn.Embedding(100, 10)embeds(Variable(torch.LongTensor([50])))# 输出:Variable containing: 0.6353 1.0526 1.2452 -1.8745 -0.1069 0.1979 0.4298 -0.3652 -0.7078 0.2642[torch.FloatTensor of size 1x10] 读取多个向量。 输入为两个维度(batch的大小,每个batch的单词个数),输出则在两个维度上加上词向量的大小。 Input: LongTensor (N, W), N = mini-batch, W = number of indices to extract per mini-batchOutput: (N, W, embedding_dim) 见代码 # an Embedding module containing 10 tensors o……

    网友NO.355256

    简单易懂Pytorch实战实例VGG深度网络

    模型VGG,数据集cifar。对照这份代码走一遍,大概就知道整个pytorch的运行机制。 来源 定义模型: '''VGG11/13/16/19 in Pytorch.'''import torchimport torch.nn as nnfrom torch.autograd import Variablecfg = { 'VGG11': [64, 'M', 128, 'M', 256, 256, 'M', 512, 512, 'M', 512, 512, 'M'], 'VGG13': [64, 64, 'M', 128, 128, 'M', 256, 256, 'M', 512, 512, 'M', 512, 512, 'M'], 'VGG16': [64, 64, 'M', 128, 128, 'M', 256, 256, 256, 'M', 512, 512, 512, 'M', 512, 512, 512, 'M'], 'VGG19': [64, 64, 'M', 128, 128, 'M', 256, 256, 256, 256, 'M', 512, 512, 512, 512, 'M', 512, 512, 512, 512, 'M'],}# 模型需继承nn.Moduleclass VGG(nn.Module):# 初始化参数: def __init__(self, vgg_name): super(VGG, self).__init__() self.features = self._make_layers(cfg[vgg_name]) self.classifier = nn.Linear(512, 10)# 模型计算时的前向过程,也就是按照这个过程进行计算 def forward(self, x): out = self.features(x) out = out.view(out.size(0), -1) out = self.classifier(out) return out def _make_layers(self, cfg): layers = [] in_channels = 3 for x in cfg: if x == 'M': layers += [nn.MaxPool2d(kernel_size=2, stride=2)] else: layers += [nn.Conv2d(in_channels, x, kernel_size=3, padding=1), nn.BatchNorm2d(x), nn.ReLU(inplace=True)] in_channels = x layers += [nn.AvgPool2d(kernel_size=1, stride=1)] return nn.Sequential(*layers)# net = VGG('VGG11')# x = torch.randn(2,3,32,32)# print(net(Variable(x)).size()) 定义训练过程: '''Train CIFAR10 with PyTorch.'''from __future……

    网友NO.783143

    pytorch 预训练层的使用方法

    pytorch 预训练层的使用方法 将其他地方训练好的网络,用到新的网络里面 加载预训练网络 1.原先已经训练好一个网络 AutoEncoder_FC() 2.首先加载该网络,读取其存储的参数 3.设置一个参数集 cnnpre = AutoEncoder_FC()cnnpre.load_state_dict(torch.load('autoencoder_FC.pkl')['state_dict'])cnnpre_dict =cnnpre.state_dict() 加载新网络 1.设置新的网络 2.设置新网络参数集 cnn= AutoEncoder()cnn_dict = cnn.state_dict() 更新新网络参数 1.将两个参数集比对,存在的网络参数保留 2.使用保留下的参数更新新网络参数集 3.加载新网络参数集到新网络中 cnnpre_dict = {k: v for k, v in cnnpre_dict.items() if k in cnn_dict}cnn_dict.update(cnnpre_dict)cnn.load_state_dict(cnn_dict) 以上这篇pytorch 预训练层的使用方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持码农之家。 ……

    网友NO.655793

    Pytorch反向求导更新网络参数的方法

    方法一:手动计算变量的梯度,然后更新梯度 import torchfrom torch.autograd import Variable# 定义参数w1 = Variable(torch.FloatTensor([1,2,3]),requires_grad = True)# 定义输出d = torch.mean(w1)# 反向求导d.backward()# 定义学习率等参数lr = 0.001# 手动更新参数w1.data.zero_() # BP求导更新参数之前,需先对导数置0w1.data.sub_(lr*w1.grad.data) 一个网络中通常有很多变量,如果按照上述的方法手动求导,然后更新参数,是很麻烦的,这个时候可以调用torch.optim 方法二:使用torch.optim import torchfrom torch.autograd import Variableimport torch.nn as nnimport torch.optim as optim# 这里假设我们定义了一个网络,为netsteps = 10000# 定义一个optim对象optimizer = optim.SGD(net.parameters(), lr = 0.01)# 在for循环中更新参数for i in range(steps): optimizer.zero_grad() # 对网络中参数当前的导数置0 output = net(input) # 网络前向计算 loss = criterion(output, target) # 计算损失 loss.backward() # 得到模型中参数对当前输入的梯度 optimizer.step() # 更新参数 注意: torch.optim只用于参数更新和对参数的梯度置0,不能计算参数的梯度,在使用torch.optim进行参数更新之前,需要写前向与反向传播求导的代码 以上这篇Pytorch反向求导更新网络参数的方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持码农之家。 ……

    Copyright 2018-2020 xz577.com 码农之家

    本站所有电子书资源不再提供下载地址,只分享来路

    免责声明:网站所有作品均由会员网上搜集共同更新,仅供读者预览及学习交流使用,下载后请24小时内删除

    版权投诉 / 书籍推广 / 赞助:QQ:520161757