标签分类
当前位置:首页 > 人工智能电子书 > 深度学习电子书网盘下载
深度学习实战 深度学习实战
码小辫

码小辫 提供上传

资源
16
粉丝
31
喜欢
142
评论
7

    深度学习实战 PDF 全书完整版

    深度学习电子书
    • 发布时间:

    给大家带来的一篇关于深度学习相关的电子书资源,介绍了关于深度学习、实战方面的内容,本书是由清华大学出版社出版,格式为PDF,资源大小45.4 MB,杨云、杜飞编写,目前豆瓣、亚马逊、当当、京东等电子书综合评分为:9.1,更多相关的学习资源可以参阅 人工智能电子书、等栏目。

  • 深度学习实战 PDF 下载
  • 下载地址:https://pan.baidu.com/s/1Z1AUffsmkeAtf_Ij3mcGdA
  • 分享码:zug3
  • 深度学习实战 PDF

    1. 这书去繁化简地对深度神经网络的基础知识开展整理,并对优化算法保持作出通俗易懂的解读,便捷新手学习培训。

    2. 这书用心选择很多深度神经网络的实例,根据启发式的通过自学方式,使用户循序渐进地学习培训并把握常见的深度神经网络实体模型,迅速开展实战演练,为深化应用开源系统深度神经网络服务平台与专用工具出示扎扎实实的理论研究基本。

    深度神经网络为人工智能技术产生了极大攻克,也变成深度学习行业一棵闪亮的未来之星。尽管有关学习材料丰富多彩,但绝大多数內容比较繁多且无法了解,并对新手的有关基础知识与实践活动工作能力有较高的规定,这促使绝大多数想进到这一行业的新手望而生畏。这书去繁化简地对深度神经网络的基础知识开展了整理,并对优化算法保持作出了通俗易懂的解读,合适新手开展学习培训。融合这书的內容,用户能够迅速对深度神经网络开展实践活动。根据启发式的通过自学方式,能够使用户循序渐进地学习培训并把握常见的深度神经网络实体模型,为深化应用开源系统的深度神经网络服务平台与专用工具出示理论研究基本。 这书可做为高等学校计算机专科的本科毕业或硕士研究生教材内容,也能够对深度神经网络很感兴趣的科学研究工作人员和工程项目专业技术人员阅读文章参照。

    目录

    • 第1章   深度学习的发展介绍   1
    • 1.1  如何阅读本书        3
    • 1.2  深度学习沉浮史   3
    • 1.2.1 模拟生物大脑的疯狂远古时代         4
    • 1.2.2 联结主义近代    5
    • 1.2.3 百花齐放,层次结构主导,模型巨大的当代         6
    • 1.3 Python简易教程   7
    • 1.3.1 Anaconda搭建   7
    • 1.3.2 IPython Notebook使用       7
    • 1.3.3 Python基本用法         8
    • 1.3.4 NumPy          15
    • 1.3.5 Matplotlib   23
    • 1.4  参考文献        25
    • 第2章机器学习快速入门   27
    • 2.1  学习算法        28
    • 2.1.1 学习任务    29
    • 2.1.2 性能度量    30
    • 2.1.3 学习经验    32
    • 2.2  代价函数        33
    • 2.2.1 均方误差函数    33
    • 2.2.2 极大似然估计    34
    • 2.3  梯度下降法   36
    • 2.3.1 批量梯度下降法         38
    • 2.3.2 随机梯度下降法         39
    • 2.4  过拟合与欠拟合   40
    • 2.4.1 没免费午餐理论         42
    • 2.4.2 正则化         43
    • 2.5  超参数与验证集   44
    • 2.6 Softmax编码实战 46
    • 2.6.1 编码说明    49
    • 2.6.2 熟练使用CIFAR-10 数据集       50
    • 2.6.3 显式循环计算损失函数及其梯度    53
    • 2.6.4 向量化表达式计算损失函数及其梯度    56
    • 2.6.5 最小批量梯度下降算法训练Softmax分类器 57
    • 2.6.6 使用验证数据选择超参数         61
    • 2.7  参考代码        68
    • 2.8  参考文献        70
    • 第3章前馈神经网络   72
    • 3.1  神经元   73
    • 3.1.1 Sigmoid神经元   74
    • 3.1.2 Tanh神经元        75
    • 3.1.3 ReLU神经元       76
    • 3.2  前馈神经网络        80
    • 3.2.1 输出层单元         80
    • 3.2.2 隐藏层单元         80
    • 3.2.3 网络结构设计    81
    • 3.3 BP算法  82
    • 3.4  深度学习编码实战上   86
    • 3.4.1 实现仿射传播    88
    • 3.4.2 实现ReLU传播  91
    • 3.4.3 组合单层神经元         93
    • 3.4.4 实现浅层神经网络    96
    • 3.4.5 实现深层全连接网络         101
    • 3.5  参考代码        109
    • 3.6  参考文献        113
    • 第4章深度学习正则化       115
    • 4.1  参数范数惩罚        116
    • 4.1.1 L2参数正则化    118
    • 4.1.2 L1正则化    119
    • 4.2  参数绑定与参数共享   120
    • 4.3  噪声注入与数据扩充   120
    • 4.4  稀疏表征        122
    • 4.5  早停        123
    • 4.6 Dropout  126
    • 4.6.1 个体与集成         126
    • 4.6.2 Dropout       127
    • 4.7  深度学习编码实战中   129
    • 4.7.1 Dropout传播      131
    • 4.7.2 组合Dropout传播层 134
    • 4.7.3 Dropout神经网络      136
    • 4.7.4 解耦训练器trainer    138
    • 4.7.5 解耦更新器updater  143
    • 4.7.6 正则化实验         145
    • 4.8  参考代码        148
    • 4.9  参考文献        150
    • 第5章深度学习优化   152
    • 5.1  神经网络优化困难        153
    • 5.1.1 局部最优    153
    • 5.1.2 鞍点    154
    • 5.1.3 梯度悬崖    154
    • 5.1.4 梯度消失或梯度爆炸         155
    • 5.1.5 梯度不精确         156
    • 5.1.6 优化理论的局限性    156
    • 5.2  随机梯度下降        156
    • 5.3  动量学习法   158
    • 5.4 AdaGrad和RMSProp     159
    • 5.5 Adam      160
    • 5.6  参数初始化策略   161
    • 5.7  批量归一化   163
    • 5.7.1 BN算法详解       163
    • 5.7.2 BN传播详解       165
    • 5.8  深度学习编码实战下   166
    • 5.8.1 Momentum 167
    • 5.8.2 RMSProp      171
    • 5.8.3 Adam   172
    • 5.8.4 更新规则比较    174
    • 5.8.5 BN前向传播       176
    • 5.8.6 BN反向传播       180
    • 5.8.7 使用BN的全连接网络      182
    • 5.8.8 BN算法与权重标准差比较       188
    • 5.9  参考代码        191
    • 5.10 参考文献      195
    •  
    • 第6章卷积神经网络   196
    • 6.1  卷积操作        197
    • 6.2  卷积的意义   198
    • 6.2.1 稀疏连接    199
    • 6.2.2 参数共享    200
    • 6.3  池化操作        201
    • 6.4  设计卷积神经网络        204
    • 6.4.1 跨步卷积    204
    • 6.4.2 零填充         205
    • 6.4.3 非共享卷积         206
    • 6.4.4 平铺卷积    207
    • 6.5  卷积网络编码练习        208
    • 6.5.1 卷积前向传播    209
    • 6.5.2 卷积反向传播    212
    • 6.5.3 最大池化前向传播    215
    • 6.5.4 最大池化反向传播    218
    • 6.5.5 向量化执行         220
    • 6.5.6 组合完整卷积层         223
    • 6.5.7 浅层卷积网络    224
    • 6.5.8 空间批量归一化         229
    • 6.6  参考代码        233
    • 6.7  参考文献        237
    • 第7章循环神经网络   238
    • 7.1  循环神经网络        239
    • 7.1.1 循环神经元展开         239
    • 7.1.2 循环网络训练    240
    • 7.2  循环神经网络设计        242
    • 7.2.1 双向循环网络结构    242
    • 7.2.2 编码-解码网络结构   243
    • 7.2.3 深度循环网络结构    244
    • 7.3  门控循环神经网络        245
    • 7.3.1 LSTM   246
    • 7.3.2 门控循环单元    249
    • 7.4 RNN编程练习        250
    • 7.4.1 RNN单步传播    252
    • 7.4.2 RNN时序传播    255
    • 7.4.3 词嵌入         258
    • 7.4.4 RNN输出层         261
    • 7.4.5 时序Softmax损失      262
    • 7.4.6 RNN图片说明任务    264
    • 7.5 LSTM编程练习      269
    • 7.5.1 LSTM单步传播  269
    • 7.5.2 LSTM时序传播  273
    • 7.5.3 LSTM实现图片说明任务  276
    • 7.6  参考代码        278
    • 7.6.1 RNN参考代码    278
    • 7.6.2 LSTM参考代码  282
    • 7.7  参考文献        285
    • 第8章 TensorFlow快速入门        287
    • 8.1 TensorFlow介绍    288
    • 8.2  TensorFlow1.0安装指南       289
    • 8.2.1 双版本切换Anaconda        289
    • 8.2.2 安装CUDA 8.0    291
    • 8.2.3 安装cuDNN         292
    • 8.2.4 安装TensorFlow 293
    • 8.2.5 验证安装    294
    • 8.3 TensorFlow基础    295
    • 8.3.1 Tensor 295
    • 8.3.2 TensorFlow核心API教程  296
    • 8.3.3 tf.train API   299
    • 8.3.4 tf.contrib.learn    301
    • 8.4 TensorFlow构造CNN    305
    • 8.4.1 构建Softmax模型      305
    • 8.4.2 使用TensorFlow训练模型         307
    • 8.4.3 使用TensorFlow评估模型         308
    • 8.4.4 使用TensorFlow构建卷积神经网络         308
    • 8.5 TensorBoard快速入门  311
    • 8.5.1 TensorBoard可视化学习   312
    • 8.5.2 计算图可视化    316

    上一篇:基于MVC的Java Web项目实战  下一篇:Java Web应用程序开发

    展开 +

    收起 -

    码小辫二维码
     ←点击下载即可登录

    深度学习相关电子书
    学习笔记
    网友NO.969293

    Python编程深度学习计算库之numpy

    NumPy是python下的计算库,被非常广泛地应用,尤其是近来的深度学习的推广。在这篇文章中,将会介绍使用numpy进行一些最为基础的计算。 NumPy vs SciPy NumPy和SciPy都可以进行运算,主要区别如下 最近比较热门的深度学习,比如在神经网络的算法,多维数组的使用是一个极为重要的场景。如果你熟悉tensorflow中的tensor的概念,你会非常清晰numpy的作用。所以熟悉Numpy可以说是使用python进行深度学习入门的一个基础知识。 安装 liumiaocn:tmp liumiao$ pip install numpyCollecting numpy Downloading https://files.pythonhosted.org/packages/b6/5e/4b2c794fb57a42e285d6e0fae0e9163773c5a6a6a7e1794967fc5d2168f2/numpy-1.14.5-cp27-cp27m-macosx_10_6_intel.macosx_10_9_intel.macosx_10_9_x86_64.macosx_10_10_intel.macosx_10_10_x86_64.whl (4.7MB) 100% |████████████████████████████████| 4.7MB 284kB/s Installing collected packages: numpySuccessfully installed numpy-1.14.5liumiaocn:tmp liumiao$ 确认 liumiaocn:tmp liumiao$ pip show numpyName: numpyVersion: 1.14.5Summary: NumPy: array processing for numbers, strings, records, and objects.Home-page: http://www.numpy.orgAuthor: Travis E. Oliphant et al.Author-email: NoneLicense: BSDLocation: /usr/local/lib/python2.7/site-packagesRequires: Required-by: liumiaocn:tmp liumiao$ 使用 使用numpy的数组 使用如下例子简单来理解一下numpy的数组的使用:……

    网友NO.924276

    13个最常用的Python深度学习库介绍

    如果你对深度学习和卷积神经网络感兴趣,但是并不知道从哪里开始,也不知道使用哪种库,那么这里就为你提供了许多帮助。 在这篇文章里,我详细解读了9个我最喜欢的Python深度学习库。 这个名单并不详尽,它只是我在计算机视觉的职业生涯中使用并在某个时间段发现特别有用的一个库的列表。 这其中的一些库我比别人用的多很多,尤其是Keras、mxnet和sklearn-theano。 其他的一些我是间接的使用,比如Theano和TensorFlow(库包括Keras、deepy和Blocks等)。 另外的我只是在一些特别的任务中用过(比如nolearn和他们的Deep Belief Network implementation)。 这篇文章的目的是向你介绍这些库。我建议你认真了解这里的每一个库,然后在某个具体工作情境中你就可以确定一个最适用的库。 我想再次重申,这份名单并不详尽。此外,由于我是计算机视觉研究人员并长期活跃在这个领域,对卷积神经网络(细胞神经网络)方面的库会关注更多。 我把这个深度学习库的列表分为三个部分。 第一部分是比较流行的库,你可能已经很熟悉了。对于这些库,我提供了一个通俗的、高层次的概述。然后,针对每个库我详细解说了我的喜欢之处和不喜欢之处,并列举了一些适当的应用案例。 第二部分进入到我个人最喜欢的深度学习库,也是我日常工作中使……

    网友NO.624954

    PyTorch的深度学习入门教程之构建神经网络

    前言 本文参考PyTorch官网的教程,分为五个基本模块来介绍PyTorch。为了避免文章过长,这五个模块分别在五篇博文中介绍。 Part3:使用PyTorch构建一个神经网络 神经网络可以使用touch.nn来构建。nn依赖于autograd来定义模型,并且对其求导。一个nn.Module包含网络的层(layers),同时forward(input)可以返回output。 这是一个简单的前馈网络。它接受输入,然后一层一层向前传播,最后输出一个结果。 训练神经网络的典型步骤如下: (1) 定义神经网络,该网络包含一些可以学习的参数(如权重) (2) 在输入数据集上进行迭代 (3) 使用网络对输入数据进行处理 (4) 计算loss(输出值距离正确值有多远) (5) 将梯度反向传播到网络参数中 (6) 更新网络的权重,使用简单的更新法则:weight = weight - learning_rate* gradient,即:新的权重=旧的权重-学习率*梯度值。 1 定义网络 我们先定义一个网络: import torchfrom torch.autograd import Variableimport torch.nn as nnimport torch.nn.functional as Fclass Net(nn.Module): def __init__(self): super(Net, self).__init__() # 1 input image channel, 6 output channels, 5x5 square convolution # kernel self.conv1 = nn.Conv2d(1, 6, 5) self.conv2 = nn.Conv2d(6, 16, 5) # an affine operation: y = Wx + b self.fc1 = nn.Linear(16 * 5 * 5, 120) self.fc2 = nn.Linear(120, 84) self.fc3 = nn.Linear(84, 10) def forwar……

    网友NO.642449

    PyTorch的深度学习入门之PyTorch安装和配置

    前言 深度神经网络是一种目前被广泛使用的工具,可以用于图像识别、分类,物体检测,机器翻译等等。深度学习(DeepLearning)是一种学习神经网络各种参数的方法。因此,我们将要介绍的深度学习,指的是构建神经网络结构,并且运用各种深度学习算法训练网络参数,进而解决各种任务。本文从PyTorch环境配置开始。PyTorch是一种Python接口的深度学习框架,使用灵活,学习方便。还有其他主流的深度学习框架,例如Caffe,TensorFlow,CNTK等等,各有千秋。笔者认为,初期学习还是选择一种入门,不要期望全都学会。须知,发力集中才能深入挖掘。乱花渐欲迷人眼,选择适合自己的,从一而终,相信会对科研大有裨益! *************************************************** 说明:本文乃至本系列全部文章都是在PyTorch0.2版本下做的。现在版本更新了很多,会有一些API的更改,请大家注意Follow最新的变化,以免由于版本问题受到困扰。 *************************************************** 1.环境说明 PyTorch目前支持OSX和Linux两种系统,并且支持多种安装方式。在官网上介绍了基于conda,pip和源代码编译几种不同的安装方式。支持的Python版本有2.7,3.5和3.6。鉴于深度学习需要的计算量一般比较大,强烈建议找到一个有独立显卡的电脑来展开学习,当然没有显卡也能……

    Copyright 2018-2019 xz577.com 码农之家

    版权责任说明