标签分类
当前位置:首页 > 人工智能电子书 > 算法电子书网盘下载
深度学习算法实践(基于Theano和TensorFlow) 深度学习算法实践(基于Theano和TensorFlow)
码小辫

码小辫 提供上传

资源
48
粉丝
22
喜欢
169
评论
7

    深度学习算法实践(基于Theano和TensorFlow) PDF 完整影印版

    算法电子书
    • 发布时间:

    给大家带来的一篇关于算法相关的电子书资源,介绍了关于深度学习、算法实践、Theano、TensorFlow方面的内容,本书是由电子工业出版社出版,格式为PDF,资源大小58 MB,闫涛 周琦编写,目前豆瓣、亚马逊、当当、京东等电子书综合评分为:7.9,更多相关的学习资源可以参阅 人工智能电子书、等栏目。

  • 深度学习算法实践(基于Theano和TensorFlow) PDF 下载
  • 下载地址:https://pan.baidu.com/s/1bODzVq6HSZAJi3v5qQoNXw
  • 分享码:ice5
  • 深度学习算法实践(基于Theano和TensorFlow) PDF

    1.中科院院士工程院院士陈志杰倾心作序,业内专家黄文涛、陈晓禾联手力荐。

    2.以深度学习算法新手入门为主题思想,以NumPy、SciPy等科学计算库,深度神经网络流行优化算法,深度神经网络最前沿科学研究,深度神经网络服务项目云服务平台搭建几大主线任务开展详细介绍。

    3.详尽解读了优化算法身后的数学原理,得出了应用场景TensorFlow和Theano的优化算法保持技术性。

    4.以MNIST写作大数字鉴别为例,运用所详细介绍的技术性,它是1本兼具理论研究的深度神经网络通过自学教材。这书以深度学习算法新手入门为主题思想,根据系统软件详细介绍Python、NumPy、SciPy等科学计算库,深度神经网络流行优化算法,深度神经网络最前沿科学研究,深度神经网络服务项目云服务平台搭建几大主线任务,向用户系统化详细介绍了深度神经网络的主题思想和研究进展。这书详细介绍了Python、NumPy、SciPy的应用方法,朝向Google发布的开源系统深度神经网络架构TensorFlow,向用户展现了运用TensorFlow和Theano架构保持线性回归、逻辑回归、双层感知器、卷积神经网络、递归神经元网络、长短时记忆互联网、去噪自动编码机、层叠自动编码机、受到限制玻尔兹曼机、深度1信心互联网等,并将这种技术性用以MNIST写作大数字鉴别每日任务。这书不但叙述了深度学习算法自身 ,并且重中之重叙述了如何把这种深度学习算法包裝成Web服务项目。这书致力于协助众多工程项目专业技术人员迅速把握深度神经网络有关基础理论和实践活动,并将这种专业知识运用到具体工作上。

    这书能够做为各种深度神经网络培训机构的教材内容,还可以做为全国性高等学校工科学校“深度神经网络”课程内容的教材内容,可以做为众多人工智能技术、深度神经网络行业工程项目专业技术人员的教材。

    目录

    • 第一部分 深度学习算法概述
    • 第1章 深度学习算法简介 2
    • 1.1 神经网络发展简史 2
    • 1.1.1 神经网络第一次兴起 3
    • 1.1.2 神经网络沉寂期(20世纪80年代—21世纪) 4
    • 1.1.3 神经网络技术积累期(20世纪90年代—2006年) 5
    • 1.1.4 深度学习算法崛起(2006年至今) 8
    • 1.2 深度学习现状 10
    • 1.2.1 传统神经网络困境 10
    • 1.2.2 深度多层感知器 12
    • 1.2.3 深度卷积神经网络 14
    • 1.2.4 深度递归神经网络 15
    • 1.3 深度学习研究前瞻 16
    • 1.3.1 自动编码机 17
    • 1.3.2 深度信念网络 18
    • 1.3.3 生成式网络最新进展 19
    • 1.4 深度学习框架比较 20
    • 1.4.1 TensorFlow 20
    • 1.4.2 Theano 21
    • 1.4.3 Torch 22
    • 1.4.4 DeepLearning4J 23
    • 1.4.5 Caffe 23
    • 1.4.6 MXNet 24
    • 1.4.7 CNTK 27
    • 1.4.8 深度学习框架造型指导原则 27
    • 1.5 深度学习入门路径 28
    • 1.5.1 运行MNIST 28
    • 1.5.2 深度学习框架的选择 29
    • 1.5.3 小型试验网络 33
    • 1.5.4 训练生产网络 33
    • 1.5.5 搭建生产环境 34
    • 1.5.6 持续改进 35
    • 第二部分 深度学习算法基础
    • 第2章 搭建深度学习开发环境 38
    • 2.1 安装Python开发环境 38
    • 2.1.1 安装最新版本Python 38
    • 2.1.2 Python虚拟环境配置 39
    • 2.1.3 安装科学计算库 40
    • 2.1.4 安装最新版本Theano 40
    • 2.1.5 图形绘制 40
    • 2.2 NumPy简易教程 43
    • 2.2.1 Python基础 43
    • 2.2.2 多维数组的使用 51
    • 2.2.3 向量运算 58
    • 2.2.4 矩阵运算 60
    • 2.2.5 线性代数 62
    • 2.3 TensorFlow简易教程 68
    • 2.3.1 张量定义 69
    • 2.3.2 变量和placeholder 69
    • 2.3.3 神经元激活函数 71
    • 2.3.4 线性代数运算 72
    • 2.3.5 操作数据集 74
    • 2.4 Theano简易教程 77
    • 2.4.1 安装Theano 77
    • 2.4.2 Theano入门 78
    • 2.4.3 Theano矩阵相加 79
    • 2.4.4 变量和共享变量 80
    • 2.4.5 随机数的使用 84
    • 2.4.6 Theano求导 84
    • 2.5 线性回归 86
    • 2.5.1 问题描述 86
    • 2.5.2 线性模型 88
    • 2.5.3 线性回归学习算法 89
    • 2.5.4 解析法 90
    • 2.5.5 Theano实现 93
    • 第3章 逻辑回归 100
    • 3.1 逻辑回归数学基础 100
    • 3.1.1 逻辑回归算法的直观解释 100
    • 3.1.2 逻辑回归算法数学推导 101
    • 3.1.3 牛顿法解逻辑回归问题 103
    • 3.1.4 通用学习模型 106
    • 3.2 逻辑回归算法简单应用 113
    • 3.3 MNIST手写数字识别库简介 124
    • 3.4 逻辑回归MNIST手写数字识别 126
    • 第4章 感知器模型和MLP 139
    • 4.1 感知器模型 139
    • 4.1.1 神经元模型 139
    • 4.1.2 神经网络架构 143
    • 4.2 数值计算形式 144
    • 4.2.1 前向传播 144
    • 4.2.2 误差反向传播 145
    • 4.2.3 算法推导 147
    • 4.3 向量化表示形式 152
    • 4.4 应用要点 153
    • 4.4.1 输入信号模型 154
    • 4.4.2 权值初始化 155
    • 4.4.3 早期停止 155
    • 4.4.4 输入信号调整 156
    • 4.5 TensorFlow实现MLP 156
    • 第5章 卷积神经网络 174
    • 5.1 卷积神经网络原理 174
    • 5.1.1 卷积神经网络的直观理解 174
    • 5.1.2 卷积神经网络构成 177
    • 5.1.3 卷积神经网络设计 191
    • 5.1.4 迁移学习和网络微调 193
    • 5.2 卷积神经网络的TensorFlow实现 195
    • 5.2.1 模型搭建 197
    • 5.2.2 训练方法 203
    • 5.2.3 运行方法 208
    • 第6章 递归神经网络 212
    • 6.1 递归神经网络原理 212
    • 6.1.1 递归神经网络表示方法 213
    • 6.1.2 数学原理 214
    • 6.1.3 简单递归神经网络应用示例 219
    • 6.2 图像标记 226
    • 6.2.1 建立开发环境 226
    • 6.2.2 图像标记数据集处理 227
    • 6.2.3 单步前向传播 229
    • 6.2.4 单步反向传播 231
    • 6.2.5 完整前向传播 234
    • 6.2.6 完整反向传播 236
    • 6.2.7 单词嵌入前向传播 239
    • 6.2.8 单词嵌入反向传播 241
    • 6.2.9 输出层前向/反向传播 243
    • 6.2.10 输出层代价函数计算 245
    • 6.2.11 图像标注网络整体架构 248
    • 6.2.12 代价函数计算 249
    • 6.2.13 生成图像标记 255
    • 6.2.14 网络训练过程 258
    • 6.2.15 网络持久化 265
    • 第7章 长短时记忆网络 269
    • 7.1 长短时记忆网络原理 269
    • 7.1.1 网络架构 269
    • 7.1.2 数学公式 272
    • 7.2 MNIST手写数字识别 274
    • 第三部分 深度学习算法进阶
    • 第8章 自动编码机 286
    • 8.1 自动编码机概述 286
    • 8.1.1 自动编码机原理 287
    • 8.1.2 去噪自动编码机 287
    • 8.1.3 稀疏自动编码机 288
    • 8.2 去噪自动编码机TensorFlow实现 291
    • 8.3 去噪自动编码机的Theano实现 298
    • 第9章 堆叠自动编码机 307
    • 9.1 堆叠去噪自动编码机 308
    • 9.2 TensorFlow实现 322
    • 9.3 Theano实现 341
    • 第10章 受限玻尔兹曼机 344
    • 10.1 受限玻尔兹曼机原理 344
    • 10.1.1 网络架构 344
    • 10.1.2 能量模型 346
    • 10.1.3 CD-K算法 351
    • 10.2 受限玻尔兹曼机TensorFlow实现 353
    • 10.3 受限玻尔兹曼机Theano实现 362
    • 第11章 深度信念网络 381
    • 11.1 深度信念网络原理 381
    • 11.2 深度信念网络TensorFlow实现 382
    • 11.3 深度信念网络Theano实现 403
    • 第四部分 机器学习基础
    • 第12章 生成式学习 420
    • 12.1 高斯判别分析 422
    • 12.1.1 多变量高斯分布 422
    • 12.1.2 高斯判决分析公式 423
    • 12.2 朴素贝叶斯 436
    • 12.2.1 朴素贝叶斯分类器 436
    • 12.2.2 拉普拉斯平滑 439
    • 12.2.3 多项式事件模型 441
    • 第13章 支撑向量机 444
    • 13.1 支撑向量机概述 444
    • 13.1.1 函数间隔和几何间隔 445
    • 13.1.2 最优距离分类器 448
    • 13.2 拉格朗日对偶 448
    • 13.3 最优分类器算法 450
    • 13.4 核方法 453
    • 13.5 非线性可分问题 455
    • 13.6 SMO算法 457
    • 13.6.1 坐标上升算法 458
    • 13.6.2 SMO算法详解 458
    • 第五部分 深度学习平台API
    • 第14章 Python Web编程 462
    • 14.1 Python Web开发环境搭建 462
    • 14.1.1 CherryPy框架 463
    • 14.1.2 CherryPy安装 463
    • 14.1.3 测试CherryPy安装是否成功 464
    • 14.2 最简Web服务器 465
    • 14.2.1 程序启动 465
    • 14.2.2 显示HTML文件 466
    • 14.2.3 静态内容处理 468
    • 14.3 用户认证系统 471
    • 14.4 AJAX请求详解 473
    • 14.4.1 添加数据 474
    • 14.4.2 修改数据 476
    • 14.4.3 删除数据 478
    • 14.4.4 REST服务实现 479
    • 14.5 数据持久化技术 487
    • 14.5.1 环境搭建 487
    • 14.5.2 数据库添加操作 488
    • 14.5.3 数据库修改操作 489
    • 14.5.4 数据库删除操作 490
    • 14.5.5 数据库查询操作 491
    • 14.5.6 数据库事务操作 492
    • 14.5.7 数据库连接池 494
    • 14.6 任务队列 499
    • 14.7 媒体文件上传 502
    • 14.8 Redis操作 504
    • 14.8.1 Redis安装配置 504
    • 14.8.2 Redis使用例程 505
    • 第15章 深度学习云平台 506
    • 15.1 神经网络持久化 506
    • 15.1.1 数据库表设计 506
    • 15.1.2 整体目录结构 511
    • 15.1.3 训练过程及模型文件保存 512
    • 15.2 神经网络运行模式 528
    • 15.3 AJAX请求调用神经网络 531
    • 15.3.1 显示静态网页 531
    • 15.3.2 上传图片文件 540
    • 15.3.3 AJAX接口 543
    • 15.4 请求合法性验证 545
    • 15.4.1 用户注册和登录 546
    • 15.4.2 客户端生成请求 553
    • 15.4.3 服务器端验证请求 555
    • 15.5 异步结果处理 557
    • 15.5.1 网页异步提交 557
    • 15.5.2 应用队列管理模块 559
    • 15.5.3 任务队列 560
    • 15.5.4 结果队列 561
    • 15.5.5 异步请求处理流程 562
    • 15.6 神经网络持续改进 563
    • 15.6.1 应用遗传算法 563
    • 15.6.2 重新训练 564
    • 15.6.3 生成式对抗网络 565
    • 后 记 567
    • 参考文献 568

    上一篇:离散时间信号处理  下一篇:无线电安全攻防大揭秘

    展开 +

    收起 -

    码小辫二维码
     ←点击下载即可登录

    算法相关电子书
    学习笔记
    网友NO.549917

    解决tensorflow模型参数保存和加载的问题

    终于找到bug原因!记一下;还是不熟悉平台的原因造成的! Q:为什么会出现两个模型对象在同一个文件中一起运行,当直接读取他们分开运行时训练出来的模型会出错,而且总是有一个正确,一个读取错误? 而 直接在同一个文件又训练又重新加载模型预测不出错,而且更诡异的是此时用分文件里的对象加载模型不会出错? model.py,里面含有 ModelV 和 ModelP,另外还有 modelP.py 和 modelV.py 分别只含有 ModelP 和 ModeV 这两个对象,先使用 modelP.py 和 modelV.py 分别训练好模型,然后再在 model.py 里加载进来: # -*- coding: utf8 -*-import tensorflow as tfclass ModelV(): def __init__(self): self.v1 = tf.Variable(66, name="v1") self.v2 = tf.Variable(77, name="v2") self.save_path = "model_v/model.ckpt" self.init = tf.global_variables_initializer() self.saver = tf.train.Saver() self.sess = tf.Session() def train(self): self.sess.run(self.init) print 'v2', self.v2.eval(self.sess) self.saver.save(self.sess, self.save_path) print "ModelV saved." def predict(self): all_vars = tf.trainable_variables() for v in all_vars: print(v.name) self.saver.restore(self.sess, self.save_path) print "ModelV restored." print 'v2', self.v2.eval(self.sess) print '------------------------------------------------------------------'class ModelP(): def __init__(self): self.p1 = tf.Variable(88, name="p1") self.p2 = tf.Variable(99, name="p2") self.save_path = "model_……

    网友NO.112606

    tensorflow 打印内存中的变量方法

    法一: 循环打印 模板 for (x, y) in zip(tf.global_variables(), sess.run(tf.global_variables())): print '\n', x, y 实例 # coding=utf-8import tensorflow as tfdef func(in_put, layer_name, is_training=True): with tf.variable_scope(layer_name, reuse=tf.AUTO_REUSE): bn = tf.contrib.layers.batch_norm(inputs=in_put, decay=0.9, is_training=is_training, updates_collections=None) return bndef main(): with tf.Graph().as_default(): # input_x input_x = tf.placeholder(dtype=tf.float32, shape=[1, 4, 4, 1]) import numpy as np i_p = np.random.uniform(low=0, high=255, size=[1, 4, 4, 1]) # outputs output = func(input_x, 'my', is_training=True) with tf.Session() as sess: sess.run(tf.global_variables_initializer()) t = sess.run(output, feed_dict={input_x:i_p}) # 法一: 循环打印 for (x, y) in zip(tf.global_variables(), sess.run(tf.global_variables())): print '\n', x, yif __name__ == "__main__": main() 2017-09-29 10:10:22.714213: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1052] Creating TensorFlow device (/device:GPU:0) - (device: 0, name: GeForce GTX 1070, pci bus id: 0000:01:00.0, compute capability: 6.1)tf.Variable 'my/BatchNorm/beta:0' shape=(1,) dtype=float32_ref [ 0.]tf.Variable 'my/BatchNorm/moving_mean:0' shape=(1,) dtype=float32_ref [ 13.46412563]tf.Variable 'my/BatchNorm/moving_variance:0' shape=(1,) dtype=float32_ref [ 452.62246704]Process finished with exit code 0 法二: 指定变量名打印 模板 print 'my/BatchNorm/beta:0', (sess.run('my/BatchNorm/beta:0')……

    网友NO.693179

    对TensorFlow的assign赋值用法详解

    TensorFlow修改变量值后,需要重新赋值,assign用起来有点小技巧,就是需要需要弄个操作子,运行一下。 下面这么用是不行的 import tensorflow as tfimport numpy as np x = tf.Variable(0)init = tf.initialize_all_variables()sess = tf.InteractiveSession()sess.run(init) print(x.eval()) x.assign(1)print(x.eval()) 正确用法 1. import tensorflow as tfx = tf.Variable(0)y = tf.assign(x, 1)with tf.Session() as sess: sess.run(tf.global_variables_initializer()) print sess.run(x) print sess.run(y) print sess.run(x) 2. In [212]: w = tf.Variable(12)In [213]: w_new = w.assign(34) In [214]: with tf.Session() as sess: ...: sess.run(w_new) ...: print(w_new.eval()) # output34 3. import tensorflow as tfx = tf.Variable(0)sess = tf.Session()sess.run(tf.global_variables_initializer())print(sess.run(x)) # Prints 0.x.load(1, sess)print(sess.run(x)) # Prints 1. 我的方法 import numpy as np #这是Python的一种开源的数值计算扩展,非常强大import tensorflow as tf #导入tensorflow ##构造数据##x_data=np.random.rand(100).astype(np.float32) #随机生成100个类型为float32的值y_data=x_data*0.1+0.3 #定义方程式y=x_data*A+B##-------####建立TensorFlow神经计算结构##weight=tf.Variable(tf.random_uniform([1],-1.0,1.0)) biases=tf.Variable(tf.zeros([1])) y=weight*x_data+biasesw1=weight*2loss=tf.reduce_mean(tf.square(y-y_data)) #判断与正确值的差距optimizer=tf.train.GradientDescentOptimizer(0.5) #根据差距进行反向传播修正……

    Copyright 2018-2019 xz577.com 码农之家

    版权责任说明