标签分类 热门分类
当前位置:首页 > 人工智能电子书 > AlphaGo电子书网盘下载
AlphaGo如何战胜人类围棋大师:智能硬件TensorFlow实践 AlphaGo如何战胜人类围棋大师:智能硬件TensorFlow实践
11139572

11139572 提供上传

资源
22
粉丝
49
喜欢
112
评论
17

    AlphaGo如何战胜人类围棋大师:智能硬件TensorFlow实践 PDF 完整原版

    AlphaGo电子书
    • 发布时间:

    给大家带来的一篇关于AlphaGo相关的电子书资源,介绍了关于AlphaGo、围棋大师、智能硬件、TensorFlow实践方面的内容,本书是由清华大学出版社出版,格式为PDF,资源大小7.08 MB,陈震 郑文勋编写,目前豆瓣、亚马逊、当当、京东等电子书综合评分为:9.5,更多相关的学习资源可以参阅 人工智能电子书、等栏目。

  • AlphaGo如何战胜人类围棋大师:智能硬件TensorFlow实践 PDF 下载
  • 下载地址:https://pan.baidu.com/s/1CAu-kWwIfWtFCNCXyKrBx
  • 分享码:0ox9
  • AlphaGo如何战胜人类围棋大师:智能硬件TensorFlow实践 PDF

    AlphaGo怎样能击败*中国围棋参赛选手,这书将让你解除神密的面具。

    这书理论研究融合,领着你动手能力学习培训和掌握*受欢迎的人工智能应用。根据深度学习TensorFlow专用工具的实践活动,解决真实的世界的人机交互技术难题。

    这书陪你迅速新手入门人工智能应用,根据案例表明让硬件配置怎样“智能化系统”。这书关键论述了当今设备智能化的网络热点技术性——深度学习和增强学习技术性的基本原理。在这个基础上,详细介绍AlphaGo融合深度学习和增强学习技术性,怎样击败人们围棋大师的基本原理。接下去,将深度学习的基础理论转换为实践活动,得出怎样根据把握TensorFlow和Keras深度学习架构,制做语音控制智能产品的事例,另外得出机器视觉的另一半检验实例,具体指导用户逐渐学习培训应用深度学习技术性。 这书的关键特性是实践活动实际操作,用好用可运作的实例来入门。这书可做为实践活动新手入门作业指导书,适用对设备智能化有兴趣爱好的低年级本科毕业,也合适于对设备智能化有兴趣爱好的工作人员参照。

    目录

    • 第1章机器智能的发展1
    • 1.1机器智能1
    • 1.1.1机器智能的定义1
    • 1.1.2机器智能的分类1
    • 1.2深度学习2
    • 1.2.1机器智能的神经网络方法2
    • 1.2.2人工神经元与人工神经网络3
    • 1.2.3神经网络的复兴4
    • 1.3机器学习5
    • 1.3.1机器学习的基本原理5
    • 1.3.2机器学习泛化能力6
    • 1.3.3大数据是深度学习的基础6
    • 参考文献7
    • 第2章深度学习8
    • 2.1深度学习的原理8
    • 2.1.1人工神经元8
    • 2.1.2多层人工神经网络10
    • 2.1.3神经网络训练11
    • 2.2典型的神经网络架构15
    • 2.2.1卷积神经网络15
    • 2.2.2循环神经网络17
    • 2.2.3长短时记忆循环网络18
    • 2.2.4门控循环单元循环网络19
    • 2.3机器感知21
    • 2.3.1语音识别21
    • 2.3.2计算机视觉25
    • 2.4深度学习实践26
    • 2.4.1建模工具26
    • 2.4.2软硬件工具26
    • 2.5小结28
    • 参考文献28
    • 第3章强化 学 习30
    • 3.1强化学习基础30
    • 3.1.1强化学习概述30
    • 3.1.2深度强化学习32
    • 3.1.3强化学习框架35
    • 3.2计算机围棋36
    • 3.2.1围棋游戏36
    • 3.2.2蒙特卡洛树搜索37
    • 3.2.3基于卷积网络的围棋程序43
    • 3.3阿尔法围棋的原理43
    • 3.3.1阿尔法围棋团队44
    • 3.3.2深度卷积网络44
    • 3.3.3结合策略网络和价值网络的蒙特卡洛树搜索46
    • 3.3.4阿尔法围棋技术总结48
    • 3.4小结49
    • 参考文献49
    • 第4章TensorFlow简介51
    • 4.1TensorFlow 51
    • 4.2TensorFlow使用53
    • 4.2.1TensorFlow起步53
    • 4.2.2Tensor Flow 数据的结构53
    • 4.2.3TensorFlow的工作流程54
    • 4.3Tensor运算54
    • 4.4导入实验数据55
    • 4.4.1NumpyArray方法56
    • 4.4.2TensorFlow组件方法57
    • 4.4.3TensorFlow示例58
    • 4.5TensorBoard示例59
    • 4.6小结61
    • 参考文献61
    • 第5章Keras简介62
    • 5.1Keras62
    • 5.2Keras组织结构63
    • 5.2.1Models63
    • 5.2.2Core Layers63
    • 5.2.3Layers63
    • 5.2.4Activations63
    • 5.2.5Optimizers64
    • 5.3Keras实践64
    • 5.3.1Keras安装64
    • 5.3.2Keras使用65
    • 5.4小结66
    • 参考文献66
    • 第6章声控智能1——预处理与训练67
    • 6.1声控智能67
    • 6.1.1语音指令67
    • 6.1.2语音时频谱图68
    • 6.1.3语音文件录音68
    • 6.2实验过程69
    • 6.2.1语音数据预处理69
    • 6.2.2语音识别网络70
    • 6.2.3TensorFlow/Keras的使用73
    • 6.3小结76
    • 参考文献77
    • 第7章声控智能2——部署78
    • 7.1网站端——在线推断78
    • 7.1.1云知音网站功能78
    • 7.1.2Flask 网站搭建79
    • 7.1.3Flask Keras实现80
    • 7.2移动端——离线推断81
    • 7.2.1移动端的网络模型文件81
    • 7.2.2安卓平台的TensorFlow库生成85
    • 7.2.3安卓应用的TensorFlow库调用88
    • 7.2.4安卓应用的录音功能调用89
    • 7.2.5快速集成开发91
    • 7.3小结93
    • 参考文献94
    • 第8章PYNQ语音识别95
    • 8.1PYNQ95
    • 8.1.1PYNQ简介95
    • 8.1.2PYNQZ1开发板95
    • 8.1.3Jupyter Notebook 97
    • 8.2实验设计97
    • 8.2.1PYNQ设置97
    • 8.2.2服务器端设置99
    • 8.3实验过程101
    • 8.3.1AudioInput101
    • 8.3.2传送云端105
    • 参考文献106
    • 第9章TX1视觉对象检测107
    • 9.1英伟达Jetson TX1107
    • 9.2YOLO算法107
    • 9.2.1YOLO算法107
    • 9.2.2YOLOv2算法110
    • 9.2.3YOLO的TX1实践112
    • 9.3SSD算法113
    • 9.3.1SSD算法介绍113
    • 9.3.2SSD的TX1实践113
    • 参考文献115
    • 后记116
    • 附录APython和TensorFlow操作基础117A.1Python实践基础117
    • A.2TensorFlow实践基础120

    上一篇:数据产品经理修炼手册:从零基础到大数据产品实践  下一篇:数据思维:从数据分析到商业价值

    展开 +

    收起 -

    AlphaGo 相关电子书
    关于AlphaGo的学习笔记
    网友NO.163583

    TensorFlow实现卷积神经网络CNN

    一、卷积神经网络CNN简介 卷积神经网络(ConvolutionalNeuralNetwork,CNN)最初是为解决图像识别等问题设计的,CNN现在的应用已经不限于图像和视频,也可用于时间序列信号,比如音频信号和文本数据等。CNN作为一个深度学习架构被提出的最初诉求是降低对图像数据预处理的要求,避免复杂的特征工程。在卷积神经网络中,第一个卷积层会直接接受图像像素级的输入,每一层卷积(滤波器)都会提取数据中最有效的特征,这种方法可以提取到图像中最基础的特征,而后再进行组合和抽象形成更高阶的特征,因此CNN在理论上具有对图像缩放、平移和旋转的不变性。 卷积神经网络CNN的要点就是局部连接(LocalConnection)、权值共享(WeightsSharing)和池化层(Pooling)中的降采样(Down-Sampling)。其中,局部连接和权值共享降低了参数量,使训练复杂度大大下降并减轻了过拟合。同时权值共享还赋予了卷积网络对平移的容忍性,池化层降采样则进一步降低了输出参数量并赋予模型对轻度形变的容忍性,提高了模型的泛化能力。可以把卷积层卷积操作理解为用少量参数在图像的多个位置上提取相似特征的过程。 更多请参见:深度学习之卷积神经网络CNN 二、TensorFlow代码实现 #!/usr/bin/env python2 # -*- coding: utf-8 -*- """ Created on Thu Mar 9 22:01:46 201……

    网友NO.218569

    Tensorflow中使用tfrecord方式读取数据的方法

    前言 本博客默认读者对神经网络与Tensorflow有一定了解,对其中的一些术语不再做具体解释。并且本博客主要以图片数据为例进行介绍,如有错误,敬请斧正。 使用Tensorflow训练神经网络时,我们可以用多种方式来读取自己的数据。如果数据集比较小,而且内存足够大,可以选择直接将所有数据读进内存,然后每次取一个batch的数据出来。如果数据较多,可以每次直接从硬盘中进行读取,不过这种方式的读取效率就比较低了。此篇博客就主要讲一下Tensorflow官方推荐的一种较为高效的数据读取方式——tfrecord。 从宏观来讲,tfrecord其实是一种数据存储形式。使用tfrecord时,实际上是先读取原生数据,然后转换成tfrecord格式,再存储在硬盘上。而使用时,再把数据从相应的tfrecord文件中解码读取出来。那么使用tfrecord和直接从硬盘读取原生数据相比到底有什么优势呢?其实,Tensorflow有和tfrecord配套的一些函数,可以加快数据的处理。实际读取tfrecord数据时,先以相应的tfrecord文件为参数,创建一个输入队列,这个队列有一定的容量(视具体硬件限制,用户可以设置不同的值),在一部分数据出队列时,tfrecord中的其他数据就可以通过预取进入队列,并且这个过程和网络的计算是独立进行的。也就是说,网络每一个iteration的训练不必……

    网友NO.804965

    通过python的matplotlib包将Tensorflow数据进行可视化的方法

    使用matplotlib中的一些函数将tensorflow中的数据可视化,更加便于分析 import tensorflow as tfimport numpy as npimport matplotlib.pyplot as pltdef add_layer(inputs, in_size, out_size, activation_function=None): Weights = tf.Variable(tf.random_normal([in_size, out_size])) biases = tf.Variable(tf.zeros([1, out_size]) + 0.1) Wx_plus_b = tf.matmul(inputs, Weights) + biases if activation_function is None: outputs = Wx_plus_b else: outputs = activation_function(Wx_plus_b) return outputs# Make up some real datax_data = np.linspace(-1, 1, 300)[:, np.newaxis]noise = np.random.normal(0, 0.05, x_data.shape)y_data = np.square(x_data) - 0.5 + noise# define placeholder for inputs to networkxs = tf.placeholder(tf.float32, [None, 1])ys = tf.placeholder(tf.float32, [None, 1])# add hidden layerl1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu)# add output layerprediction = add_layer(l1, 10, 1, activation_function=None)# the error between prediction and real dataloss = tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction), reduction_indices=[1]))train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)# important step#initialize_all_variables已被弃用,使用tf.global_variables_initializer代替。 init = tf.global_variables_initializer()sess = tf.Session()sess.run(init)# plot the real datafig = plt.figure()ax = fig.add_subplot(1,1,1)ax.scatter(x_data, y_data)plt.ion() #使plt不会在show之后停止而是继续运行plt.show()for i in range(1000): # traini……

    网友NO.276412

    使用TensorFlow实现简单线性回归模型

    本文使用TensorFlow实现最简单的线性回归模型,供大家参考,具体内容如下 线性拟合y=2.7x+0.6, import tensorflow as tfimport numpy as npimport matplotlib.pyplot as plt n = 201 # x点数X = np.linspace(-1, 1, n)[:,np.newaxis] # 等差数列构建X,[:,np.newaxis]这个是shape,这一行构建了一个n维列向量([1,n]的矩阵)noise = np.random.normal(0, 0.5, X.shape) # 噪声值,与X同型Y = X*2.7 + 0.6 + noise # Y xs = tf.placeholder(tf.float32, [None, 1]) # 下面两行是占位符tf.placeholder(dtype, shape)ys = tf.placeholder(tf.float32, [None, 1]) w = tf.Variable(1.1) # 这两行是weight变量,bias变量,括号中是初始值b = tf.Variable(0.2) ypredict = tf.add(w*xs,b) # 根据 w, b 产生的预测值 loss = tf.reduce_sum(tf.pow(ys-ypredict,2.0))/n # 损失函数,tf.reduce_sum()按某一维度元素求和,默认为按列 optimizer = tf.train.GradientDescentOptimizer(0.01).minimize(loss) # 梯度下降优化器,0.01学习率,最小化losss init = tf.global_variables_initializer() # 初始化所有变量 with tf.Session() as sess: sess.run(init) # 运行初始化 for i in range (1000): # 迭代1000次 sess.run(optimizer, feed_dict = {xs:X,ys:Y}) # 运行优化器,梯度下降用到loss,计算loss需要xs, ys所以后面需要feed_dict if i%50==0: # 每隔50次迭代输出w,b,loss # 下面sess.run(w),sess.run(b)里面没有feed_dict是因为打印w,b不需要xs,ys,而打印loss需要 print ("w:",sess.run(w),"\t b……

    Copyright 2018-2019 xz577.com 码农之家

    版权责任说明