当前位置:首页 > 人工智能 >
《解析深度学习:语音识别实践》电子书封面

解析深度学习:语音识别实践

  • 发布时间:2020年06月08日 10:35:38
  • 作者:俞栋
  • 大小:44.4 MB
  • 类别:深度学习电子书
  • 格式:PDF
  • 版本:高清版
  • 评分:7.4

    解析深度学习:语音识别实践 PDF 高清版

      给大家带来的一篇关于深度学习相关的电子书资源,介绍了关于深度学习、语音识别方面的内容,本书是由电子工业出版社出版,格式为PDF,资源大小44.4 MB,俞栋编写,目前豆瓣、亚马逊、当当、京东等电子书综合评分为:8.3。

      内容介绍

      AlphaGo与李世石的围棋大战激发了人们对人工智能是非的诸多争论。人工智能背后的工作原理深度学习跳入大众的视野。AlphaGo的大获全胜一定程度展示了深度学习在应用领域的成功,而语音识别正是深度学习取得显著成功的应用领域之一。

      本书是首次以深度学习为主线介绍语音识别应用的书籍,对读者了解语音识别技术及其发展历程有重要的参考价值。

      本书作者俞栋、邓力均是该领域的著名专家,他们是深度学习在应用领域取得突破性进展的推动者与实践者,他们在书中分享的研究成果一定程度上代表了本领域最新的研究进展;译者俞凯、钱彦旻也是本领域的资深专家,并有众多实践成果。对于从事此领域研究的读者来说,本书无疑有重要的参考价值。

      《解析深度学习:语音识别实践》是首部介绍语音识别中深度学习技术细节的专著。全书首先概要介绍了传统语音识别理论和经典的深度神经网络核心算法。接着全面而深入地介绍了深度学习在语音识别中的应用,包括"深度神经网络-隐马尔可夫混合模型"的训练和优化,特征表示学习、模型融合、自适应,以及以循环神经网络为代表的若干先进深度学习技术。

      《解析深度学习:语音识别实践》适合有一定机器学习或语音识别基础的学生、研究者或从业者阅读,所有的算法及技术细节都提供了详尽的参考文献,给出了深度学习在语音识别中应用的全景。

      目录

      • 译者序 iv
      • 序 vii
      • 前言 ix
      • 术语缩写 xxii
      • 符号 xxvii
      • 第 1 章 简介 1
      • 1.1 自动语音识别:更好的沟通之桥 . . . . . . . . . . . . . . . . . . . . . . . 1
      • 1.1.1 人类之间的交流 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
      • 1.1.2 人机交流 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
      • 1.2 语音识别系统的基本结构 . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
      • 1.3 全书结构 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
      • 1.3.1 第一部分:传统声学模型 . . . . . . . . . . . . . . . . . . . . . . 6
      • 1.3.2 第二部分:深度神经网络 . . . . . . . . . . . . . . . . . . . . . . 6
      • 1.3.3 第三部分:语音识别中的 DNN-HMM 混合系统 . . . . . . . . . . 7
      • 1.3.4 第四部分:深度神经网络中的表征学习 . . . . . . . . . . . . . . 7
      • 1.3.5 第五部分:高级的深度模型 . . . . . . . . . . . . . . . . . . . . . 7
      • 第一部分 传统声学模型 9
      • 第 2 章 混合高斯模型 11
      • 2.1 随机变量 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
      • 2.2 高斯分布和混合高斯随机变量 . . . . . . . . . . . . . . . . . . . . . . . . 12
      • 2.3 参数估计 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
      • 2.4 采用混合高斯分布对语音特征建模 . . . . . . . . . . . . . . . . . . . . . 16
      • 第 3 章 隐马尔可夫模型及其变体 19
      • 3.1 介绍 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
      • 3.2 马尔可夫链 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
      • 3.3 序列与模型 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
      • 3.3.1 隐马尔可夫模型的性质 . . . . . . . . . . . . . . . . . . . . . . . . 23
      • 3.3.2 隐马尔可夫模型的仿真 . . . . . . . . . . . . . . . . . . . . . . . . 24
      • 3.3.3 隐马尔可夫模型似然度的计算 . . . . . . . . . . . . . . . . . . . . 24
      • 3.3.4 计算似然度的高效算法 . . . . . . . . . . . . . . . . . . . . . . . . 26
      • 3.3.5 前向与后向递归式的证明 . . . . . . . . . . . . . . . . . . . . . . 27
      • 3.4 期望最大化算法及其在学习 HMM 参数中的应用 . . . . . . . . . . . . . 28
      • 3.4.1 期望最大化算法介绍 . . . . . . . . . . . . . . . . . . . . . . . . . 28
      • 3.4.2 使用 EM 算法来学习 HMM 参数——Baum-Welch 算法 . . . . . . 30
      • 3.5 用于解码 HMM 状态序列的维特比算法 . . . . . . . . . . . . . . . . . . . 34
      • 3.5.1 动态规划和维特比算法 . . . . . . . . . . . . . . . . . . . . . . . . 34
      • 3.5.2 用于解码 HMM 状态的动态规划算法 . . . . . . . . . . . . . . . . 35
      • 3.6 隐马尔可夫模型和生成语音识别模型的变体 . . . . . . . . . . . . . . . . 37
      • 3.6.1 用于语音识别的 GMM-HMM 模型 . . . . . . . . . . . . . . . . . 38
      • 3.6.2 基于轨迹和隐藏动态模型的语音建模和识别 . . . . . . . . . . . . 39
      • 3.6.3 使用生成模型 HMM 及其变体解决语音识别问题 . . . . . . . . . 40
      • 第二部分 深度神经网络 43
      • 第 4 章 深度神经网络 45
      • 4.1 深度神经网络框架 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
      • 4.2 使用误差反向传播来进行参数训练 . . . . . . . . . . . . . . . . . . . . . 48
      • 4.2.1 训练准则 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
      • 4.2.2 训练算法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
      • 4.3 实际应用 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
      • 4.3.1 数据预处理 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
      • 4.3.2 模型初始化 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
      • 4.3.3 权重衰减 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
      • 4.3.4 丢弃法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
      • 4.3.5 批量块大小的选择 . . . . . . . . . . . . . . . . . . . . . . . . . . 58
      • 4.3.6 取样随机化 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
      • 4.3.7 惯性系数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
      • 4.3.8 学习率和停止准则 . . . . . . . . . . . . . . . . . . . . . . . . . . 61
      • 4.3.9 网络结构 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
      • 4.3.10 可复现性与可重启性 . . . . . . . . . . . . . . . . . . . . . . . . . 62
      • 第 5 章 高级模型初始化技术 65
      • 5.1 受限玻尔兹曼机 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
      • 5.1.1 受限玻尔兹曼机的属性 . . . . . . . . . . . . . . . . . . . . . . . . 67
      • 5.1.2 受限玻尔兹曼机参数学习 . . . . . . . . . . . . . . . . . . . . . . 70
      • 5.2 深度置信网络预训练 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
      • 5.3 降噪自动编码器预训练 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
      • 5.4 鉴别性预训练 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
      • 5.5 混合预训练 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
      • 5.6 采用丢弃法的预训练 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
      • 第三部分 语音识别中的深度神经网络–隐马尔可夫混合模型 81
      • 第 6 章 深度神经网络–隐马尔可夫模型混合系统 83
      • 6.1 DNN-HMM 混合系统 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
      • 6.1.1 结构 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
      • 6.1.2 用 CD-DNN-HMM 解码 . . . . . . . . . . . . . . . . . . . . . . . . 85
      • 6.1.3 CD-DNN-HMM 训练过程 . . . . . . . . . . . . . . . . . . . . . . . 86
      • 6.1.4 上下文窗口的影响 . . . . . . . . . . . . . . . . . . . . . . . . . . 88
      • 6.2 CD-DNN-HMM 的关键模块及分析 . . . . . . . . . . . . . . . . . . . . . 90
      • 6.2.1 进行比较和分析的数据集和实验 . . . . . . . . . . . . . . . . . . 90
      • 6.2.2 对单音素或者三音素的状态进行建模 . . . . . . . . . . . . . . . . 92
      • 6.2.3 越深越好 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
      • 6.2.4 利用相邻的语音帧 . . . . . . . . . . . . . . . . . . . . . . . . . . 94
      • 6.2.5 预训练 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
      • 6.2.6 训练数据的标注质量的影响 . . . . . . . . . . . . . . . . . . . . . 95
      • 6.2.7 调整转移概率 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
      • 6.3 基于 KL 距离的隐马尔可夫模型 . . . . . . . . . . . . . . . . . . . . . . . 96
      • 第 7 章 训练和解码的加速 99
      • 7.1 训练加速 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
      • 7.1.1 使用多 GPU 流水线反向传播 . . . . . . . . . . . . . . . . . . . . 100
      • 7.1.2 异步随机梯度下降 . . . . . . . . . . . . . . . . . . . . . . . . . . 103
      • 7.1.3 增广拉格朗日算法及乘子方向交替算法 . . . . . . . . . . . . . . 106
      • 7.1.4 减小模型规模 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
      • 7.1.5 其他方法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
      • 7.2 加速解码 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
      • 7.2.1 并行计算 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
      • 7.2.2 稀疏网络 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
      • 7.2.3 低秩近似 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
      • 7.2.4 用大尺寸 DNN 训练小尺寸 DNN . . . . . . . . . . . . . . . . . . 114
      • 7.2.5 多帧 DNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
      • 第 8 章 深度神经网络序列鉴别性训练 117
      • 8.1 序列鉴别性训练准则 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
      • 8.1.1 最大相互信息 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
      • 8.1.2 增强型 MMI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
      • 8.1.3 最小音素错误/状态级最小贝叶斯风险 . . . . . . . . . . . . . . . 120
      • 8.1.4 统一的公式 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
      • 8.2 具体实现中的考量 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
      • 8.2.1 词图产生 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
      • 8.2.2 词图补偿 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
      • 8.2.3 帧平滑 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
      • 8.2.4 学习率调整 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
      • 8.2.5 训练准则选择 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
      • 8.2.6 其他考量 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
      • 8.3 噪声对比估计 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
      • 8.3.1 将概率密度估计问题转换为二分类设计问题 . . . . . . . . . . . . 127
      • 8.3.2 拓展到未归一化的模型 . . . . . . . . . . . . . . . . . . . . . . . . 129
      • 8.3.3 在深度学习网络训练中应用噪声对比估计算法 . . . . . . . . . . 130
      • 第四部分 深度神经网络中的特征表示学习 133
      • 第 9 章 深度神经网络中的特征表示学习 135
      • 9.1 特征和分类器的联合学习 . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
      • 9.2 特征层级 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
      • 9.3 使用随意输入特征的灵活性 . . . . . . . . . . . . . . . . . . . . . . . . . 140
      • 9.4 特征的鲁棒性 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
      • 9.4.1 对说话人变化的鲁棒性 . . . . . . . . . . . . . . . . . . . . . . . . 141
      • 9.4.2 对环境变化的鲁棒性 . . . . . . . . . . . . . . . . . . . . . . . . . 142
      • 9.5 对环境的鲁棒性 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
      • 9.5.1 对噪声的鲁棒性 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
      • 9.5.2 对语速变化的鲁棒性 . . . . . . . . . . . . . . . . . . . . . . . . . 147
      • 9.6 缺乏严重信号失真情况下的推广能力 . . . . . . . . . . . . . . . . . . . . 148
      • 第 10 章 深度神经网络和混合高斯模型的融合 151
      • 10.1 在 GMM-HMM 系统中使用由 DNN 衍生的特征 . . . . . . . . . . . . . . 151
      • 10.1.1 使用 Tandem 和瓶颈特征的 GMM-HMM 模型 . . . . . . . . . . . 151
      • 10.1.2 DNN-HMM 混合系统与采用深度特征的 GMM-HMM 系统的比较 154
      • 10.2 识别结果融合技术 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
      • 10.2.1 识别错误票选降低技术( ROVER) . . . . . . . . . . . . . . . . . 157
      • 10.2.2 分段条件随机场( SCARF) . . . . . . . . . . . . . . . . . . . . . 159
      • 10.2.3 最小贝叶斯风险词图融合 . . . . . . . . . . . . . . . . . . . . . . 160
      • 10.3 帧级别的声学分数融合 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
      • 10.4 多流语音识别 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
      • 第 11 章 深度神经网络的自适应技术 165
      • 11.1 深度神经网络中的自适应问题 . . . . . . . . . . . . . . . . . . . . . . . . 165
      • 11.2 线性变换 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
      • 11.2.1 线性输入网络 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
      • 11.2.2 线性输出网络 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
      • 11.3 线性隐层网络 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
      • 11.4 保守训练 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
      • 11.4.1 L 2 正则项 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
      • 11.4.2 KL 距离正则项 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
      • 11.4.3 减少每个说话人的模型开销 . . . . . . . . . . . . . . . . . . . . . 173
      • 11.5 子空间方法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
      • 11.5.1 通过主成分分析构建子空间 . . . . . . . . . . . . . . . . . . . . . 175
      • 11.5.2 噪声感知、说话人感知及设备感知训练 . . . . . . . . . . . . . . 176
      • 11.5.3 张量 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
      • 11.6 DNN 说话人自适应的效果 . . . . . . . . . . . . . . . . . . . . . . . . . . 181
      • 11.6.1 基于 KL 距离的正则化方法 . . . . . . . . . . . . . . . . . . . . . 181
      • 11.6.2 说话人感知训练 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
      • 第五部分 先进的深度学习模型 185
      • 第 12 章 深度神经网络中的表征共享和迁移 187
      • 12.1 多任务和迁移学习 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
      • 12.1.1 多任务学习 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
      • 12.1.2 迁移学习 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
      • 12.2 多语言和跨语言语音识别 . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
      • 12.2.1 基于 Tandem 或瓶颈特征的跨语言语音识别 . . . . . . . . . . . . 190
      • 12.2.2 共享隐层的多语言深度神经网络 . . . . . . . . . . . . . . . . . . 191
      • 12.2.3 跨语言模型迁移 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
      • 12.3 语音识别中深度神经网络的多目标学习 . . . . . . . . . . . . . . . . . . . 197
      • 12.3.1 使用多任务学习的鲁棒语音识别 . . . . . . . . . . . . . . . . . . 197
      • 12.3.2 使用多任务学习改善音素识别 . . . . . . . . . . . . . . . . . . . . 198
      • 12.3.3 同时识别音素和字素( graphemes) . . . . . . . . . . . . . . . . . 199
      • 12.4 使用视听信息的鲁棒语音识别 . . . . . . . . . . . . . . . . . . . . . . . . 199
      • 第 13 章 循环神经网络及相关模型 201
      • 13.1 介绍 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
      • 13.2 基本循环神经网络中的状态-空间公式 . . . . . . . . . . . . . . . . . . . . 203
      • 13.3 沿时反向传播学习算法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
      • 13.3.1 最小化目标函数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
      • 13.3.2 误差项的递归计算 . . . . . . . . . . . . . . . . . . . . . . . . . . 205
      • 13.3.3 循环神经网络权重的更新 . . . . . . . . . . . . . . . . . . . . . . 206
      • 13.4 一种用于学习循环神经网络的原始对偶技术 . . . . . . . . . . . . . . . . 208
      • 13.4.1 循环神经网络学习的难点 . . . . . . . . . . . . . . . . . . . . . . 208
      • 13.4.2 回声状态( Echo-State)性质及其充分条件 . . . . . . . . . . . . . 208
      • 13.4.3 将循环神经网络的学习转化为带约束的优化问题 . . . . . . . . . 209
      • 13.4.4 一种用于学习 RNN 的原始对偶方法 . . . . . . . . . . . . . . . . 210
      • 13.5 结合长短时记忆单元( LSTM)的循环神经网络 . . . . . . . . . . . . . . 212
      • 13.5.1 动机与应用 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
      • 13.5.2 长短时记忆单元的神经元架构 . . . . . . . . . . . . . . . . . . . . 213
      • 13.5.3 LSTM-RNN 的训练 . . . . . . . . . . . . . . . . . . . . . . . . . . 214
      • 13.6 循环神经网络的对比分析 . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
      • 13.6.1 信息流方向的对比:自上而下还是自下而上 . . . . . . . . . . . . 215
      • 13.6.2 信息表征的对比:集中式还是分布式 . . . . . . . . . . . . . . . . 217
      • 13.6.3 解释能力的对比:隐含层推断还是端到端学习 . . . . . . . . . . 218
      • 13.6.4 参数化方式的对比:吝啬参数集合还是大规模参数矩阵 . . . . . 218
      • 13.6.5 模型学习方法的对比:变分推理还是梯度下降 . . . . . . . . . . 219
      • 13.6.6 识别正确率的比较 . . . . . . . . . . . . . . . . . . . . . . . . . . 220
      • 13.7 讨论 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
      • 第 14 章 计算型网络 223
      • 14.1 计算型网络 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
      • 14.2 前向计算 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
      • 14.3 模型训练 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
      • 14.4 典型的计算节点 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
      • 14.4.1 无操作数的计算节点 . . . . . . . . . . . . . . . . . . . . . . . . . 232
      • 14.4.2 含一个操作数的计算节点 . . . . . . . . . . . . . . . . . . . . . . 232
      • 14.4.3 含两个操作数的计算节点 . . . . . . . . . . . . . . . . . . . . . . 237
      • 14.4.4 用来计算统计量的计算节点类型 . . . . . . . . . . . . . . . . . . 244
      • 14.5 卷积神经网络 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
      • 14.6 循环连接 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
      • 14.6.1 只在循环中一个接一个地处理样本 . . . . . . . . . . . . . . . . . 249
      • 14.6.2 同时处理多个句子 . . . . . . . . . . . . . . . . . . . . . . . . . . 251
      • 14.6.3 创建任意的循环神经网络 . . . . . . . . . . . . . . . . . . . . . . 252
      • 第 15 章 总结及未来研究方向 255
      • 15.1 路线图 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
      • 15.1.1 语音识别中的深度神经网络启蒙 . . . . . . . . . . . . . . . . . . 255
      • 15.1.2 深度神经网络训练和解码加速 . . . . . . . . . . . . . . . . . . . . 258
      • 15.1.3 序列鉴别性训练 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
      • 15.1.4 特征处理 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
      • 15.1.5 自适应 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
      • 15.1.6 多任务和迁移学习 . . . . . . . . . . . . . . . . . . . . . . . . . . 261
      • 15.1.7 卷积神经网络 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
      • 15.1.8 循环神经网络和长短时记忆神经网络 . . . . . . . . . . . . . . . . 261
      • 15.1.9 其他深度模型 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
      • 15.2 技术前沿和未来方向 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
      • 15.2.1 技术前沿简析 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
      • 15.2.2 未来方向 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
      • 参考文献 267

      学习笔记

      《Python深度学习》书评、读书笔记

      读者评价一 现阶段最浅显易懂的深度学习新手入门书,由Keras鼻祖落笔。高手不仅技术性能得,文采都不通常,确实就是说以便让尽量多的人可以应用深度学习而写的这这书,包含了深度学习的基本知识、Keras应用方式及其深度学习最好实践活动。 学习培训这书必须具有基本的PHP专业知识,但不用深度学习或是深度学习工作经验,也不用深奥的数学知识,高中数学水准得以看懂这书。 读者评价二 这这书从6月12号那一天老总递到我手上,到今日恰好六周,你在期内我逐字逐句地啃了这这书,并在每星期的星期二和星期五中午给组里的别人讲这这书,每一次讲3个钟头。直至5分钟前不久说完最终一章,写……

      TensorFlow深度学习之卷积神经网络CNN

      一、卷积神经网络的概述 卷积神经网络(ConvolutionalNeural Network,CNN)最初是为解决图像识别等问题设计的,CNN现在的应用已经不限于图像和视频,也可用于时间序列信号,比如音频信号和文本数据等。CNN作为一个深度学习架构被提出的最初诉求是降低对图像数据预处理的要求,避免复杂的特征工程。在卷积神经网络中,第一个卷积层会直接接受图像像素级的输入,每一层卷积(滤波器)都会提取数据中最有效的特征,这种方法可以提取到图像中最基础的特征,而后再进行组合和抽象形成更高阶的特征,因此CNN在理论上具有对图像缩放、平移和旋转的不变性。 卷积神经网络CNN的要点就是局部连接(Loc……

      13个最常用的Python深度学习库介绍

      如果你对深度学习和卷积神经网络感兴趣,但是并不知道从哪里开始,也不知道使用哪种库,那么这里就为你提供了许多帮助。 在这篇文章里,我详细解读了9个我最喜欢的Python深度学习库。 这个名单并不详尽,它只是我在计算机视觉的职业生涯中使用并在某个时间段发现特别有用的一个库的列表。 这其中的一些库我比别人用的多很多,尤其是Keras、mxnet和sklearn-theano。 其他的一些我是间接的使用,比如Theano和TensorFlow(库包括Keras、deepy和Blocks等)。 另外的我只是在一些特别的任务中用过(比如nolearn和他们的Deep Belief Network implementation)。 这篇文章的目的是向你介绍这些库。我建议你认真了解这里的每……

      python开启摄像头以及深度学习实现目标检测方法

      最近想做实时目标检测,需要用到python开启摄像头,我手上只有两个uvc免驱的摄像头,性能一般。利用python开启摄像头费了一番功夫,主要原因是我的摄像头都不能用cv2的VideCapture打开,这让我联想到原来opencv也打不开Android手机上的摄像头(后来采用QML的Camera模块实现的)。看来opencv对于摄像头的兼容性仍然不是很完善。 我尝了几种办法:v4l2,v4l2_capture以及simpleCV,都打不开。最后采用pygame实现了摄像头的采集功能,这里直接给大家分享具体实现代码(python3.6,cv2,opencv3.3,ubuntu16.04)。中间注释的部分是我上述方法打开摄像头的尝试,说不定有适合自己的。 import pygame.cameraimport timeimport pygameimport c……

      Spring cloud Feign 深度学习与应用详解

      简介 Spring Cloud Feign是一个声明式的Web Service客户端,它的目的就是让Web Service调用更加简单。Feign提供了HTTP请求的模板,通过编写简单的接口和插入注解,就可以定义好HTTP请求的参数、格式、地址等信息。Feign会完全代理HTTP请求,开发时只需要像调用方法一样调用它就可以完成服务请求及相关处理。开源地址:https://github.com/OpenFeign/feign。Feign整合了Ribbon负载和Hystrix熔断,可以不再需要显式地使用这两个组件。总体来说,Feign具有如下特性: 可插拔的注解支持,包括Feign注解和JAX-RS注解; 支持可插拔的HTTP编码器和解码器; 支持Hystrix和它的Fallback; 支持Ribbon的负载均衡; 支持HTTP请求和响应的压缩。 Spring Cl……

      以上就是本次介绍的深度学习电子书的全部相关内容,希望我们整理的资源能够帮助到大家,感谢大家对码农之家的支持。

      上一篇:网络的琴弦:玩转IP看监控

      下一篇:Solr权威指南(下卷)

      展开 +

      收起 -

      下载地址:百度网盘下载
      深度学习相关电子书
      图解深度学习与神经网络
      图解深度学习与神经网络 超清版

      本书是以TensorFlow 为工具介绍神经网络和深度学习的入门书,内容循序渐进,以简单示例和图例的形式,展示神经网络和深度学习背后的数学基础原理,帮助读者更好地理解复杂抽象的公式。

      立即下载
      Keras深度学习实战
      Keras深度学习实战 清晰版 立即下载
      深度学习框架PyTorch:入门与实践
      深度学习框架PyTorch:入门与实践 超清完整版

      本书媲美TensorFlow的深度学习框架!从多维数组Tensor开始,循序渐进地带领读者了解PyTorch各方面的基础知识,包含实战Kaggle竞赛中经典项目、GAN生成动漫头像、AI滤镜、RNN写诗、图像描述任务等

      立即下载
      深度学习:人工智能算法(Deep Learning)
      深度学习:人工智能算法(Deep Learning) 高清版

      本书包括3 个部分:第1 部分介绍基本的数学工具和机器学习的概念,它们是深度学习的预备知识;第2 部分系统深入地讲解现今已成熟的深度学习方法和技术;第3 部分讨论某些具有前瞻性的方

      立即下载
      深度学习入门之PyTorch
      深度学习入门之PyTorch 清晰扫描版 立即下载
      深度学习:一起玩转TensorLayer
      深度学习:一起玩转TensorLayer 原书扫描版

      本书介绍了人工神经网络的基本知识,着重讲解了深度学习的一些新的技术,以通俗易懂的方式讲解深度学习技术,包含多层感知器、卷积网络、递归网络及增强学习等,面向深度学习初学者、

      立即下载
      深度学习轻松学:核心算法与视觉实践
      深度学习轻松学:核心算法与视觉实践 全书扫描版

      《深度学习轻松学:核心算法与视觉实践》介绍了深度学习基本算法和视觉领域的应用实例。书中以轻松直白的语言,生动详细地介绍了深层模型相关的基础知识,并深入剖析了算法的原理与本质。同时,书中还配有大量案例与源码,帮助读者切实体会深度学习的核心思想和精妙之处。除此之外,书中还介绍了深度学习在视觉领域的应用,从原理层面揭示其思路思想,帮助读者在此领域中夯实技术基础。

      立即下载
      深度学习:卷积神经网络从入门到精通
      深度学习:卷积神经网络从入门到精通 原书扫描版 立即下载
      读者留言
      方驰

      方驰 提供上传

      资源
      39
      粉丝
      42
      喜欢
      148
      评论
      5

      Copyright 2018-2020 www.xz577.com 码农之家

      版权投诉 / 书籍推广 / 赞助:520161757@qq.com