标签分类
当前位置:首页 > 人工智能电子书 > 机器学习电子书网盘下载
机器学习实战:基于Scikit-Learn和TensorFlow 机器学习实战:基于Scikit-Learn和TensorFlow
cwbcom

cwbcom 提供上传

资源
32
粉丝
44
喜欢
83
评论
10

    机器学习实战:基于Scikit-Learn和TensorFlow PDF 扫描版

    机器学习电子书
    • 发布时间:

    给大家带来的一篇关于机器学习相关的电子书资源,介绍了关于机器学习、Scikit-Learn、TensorFlow方面的内容,本书是由机械工业出版社出版,格式为PDF,资源大小13.99 MB,奥雷利安·杰龙编写,目前豆瓣、亚马逊、当当、京东等电子书综合评分为:8.3,更多相关的学习资源可以参阅 人工智能电子书、等栏目。

  • 机器学习实战:基于Scikit-Learn和TensorFlow PDF 下载
  • 下载地址:https://pan.baidu.com/s/1OfV4NmkTwBz7meLLto8cXg
  • 分享码:q9n6
  • 机器学习实战:基于Scikit-Learn和TensorFlow

    内容介绍

    这书关键分成2个一部分。*一部分为第1章到第8章,包含深度学习的基础知识专业知识和基础优化算法——从线性回归到随机森林等,协助小读者把握Scikit-Learn的常见方式;继集分成第9章到第18章,讨论深度神经网络和常见架构TensorFlow,脚踏实地地领着小读者应用TensorFlow构建和训炼深度神经网络,及其卷积神经网络。

    目录

    • 前言1
    • 第一部分 机器学习基础
    • 第1章 机器学习概览11
    • 什么是机器学习12
    • 为什么要使用机器学习12
    • 机器学习系统的种类15
    • 监督式/无监督式学习16
    • 批量学习和在线学习21
    • 基于实例与基于模型的学习24
    • 机器学习的主要挑战29
    • 训练数据的数量不足29
    • 训练数据不具代表性30
    • 质量差的数据32
    • 无关特征32
    • 训练数据过度拟合33
    • 训练数据拟合不足34
    • 退后一步35
    • 测试与验证35
    • 练习37
    • 第2章 端到端的机器学习项目39
    • 使用真实数据39
    • 观察大局40
    • 框架问题41
    • 选择性能指标42
    • 检查假设45
    • 获取数据45
    • 创建工作区45
    • 下载数据48
    • 快速查看数据结构49
    • 创建测试集52
    • 从数据探索和可视化中获得洞见56
    • 将地理数据可视化57
    • 寻找相关性59
    • 试验不同属性的组合61
    • 机器学习算法的数据准备62
    • 数据清理63
    • 处理文本和分类属性65
    • 自定义转换器67
    • 特征缩放68
    • 转换流水线68
    • 选择和训练模型70
    • 培训和评估训练集70
    • 使用交叉验证来更好地进行评估72
    • 微调模型74
    • 网格搜索74
    • 随机搜索76
    • 集成方法76
    • 分析最佳模型及其错误76
    • 通过测试集评估系统77
    • 启动、监控和维护系统78
    • 试试看79
    • 练习79
    • 第3章 分类80
    • MNIST80
    • 训练一个二元分类器82
    • 性能考核83
    • 使用交叉验证测量精度83
    • 混淆矩阵84
    • 精度和召回率86
    • 精度/召回率权衡87
    • ROC曲线90
    • 多类别分类器93
    • 错误分析95
    • 多标签分类98
    • 多输出分类99
    • 练习100
    • 第4章 训练模型102
    • 线性回归103
    • 标准方程104
    • 计算复杂度106
    • 梯度下降107
    • 批量梯度下降110
    • 随机梯度下降112
    • 小批量梯度下降114
    • 多项式回归115
    • 学习曲线117
    • 正则线性模型121
    • 岭回归121
    • 套索回归123
    • 弹性网络125
    • 早期停止法126
    • 逻辑回归127
    • 概率估算127
    • 训练和成本函数128
    • 决策边界129
    • Softmax回归131
    • 练习134
    • 第5章 支持向量机136
    • 线性SVM分类136
    • 软间隔分类137
    • 非线性SVM分类139
    • 多项式核140
    • 添加相似特征141
    • 高斯RBF核函数142
    • 计算复杂度143
    • SVM回归144
    • 工作原理145
    • 决策函数和预测146
    • 训练目标146
    • 二次规划148
    • 对偶问题149
    • 核化SVM149
    • 在线SVM151
    • 练习152
    • 第6章 决策树154
    • 决策树训练和可视化154
    • 做出预测155
    • 估算类别概率157
    • CART训练算法158
    • 计算复杂度158
    • 基尼不纯度还是信息熵159
    • 正则化超参数159
    • 回归161
    • 不稳定性162
    • 练习163
    • 第7章 集成学习和随机森林165
    • 投票分类器165
    • bagging和pasting168
    • Scikit-Learn的bagging和pasting169
    • 包外评估170
    • Random Patches和随机子空间171
    • 随机森林172
    • 极端随机树173
    • 特征重要性173
    • 提升法174
    • AdaBoost175
    • 梯度提升177
    • 堆叠法181
    • 练习184
    • 第8章 降维185
    • 维度的诅咒186
    • 数据降维的主要方法187
    • 投影187
    • 流形学习189
    • PCA190
    • 保留差异性190
    • 主成分191
    • 低维度投影192
    • 使用Scikit-Learn192
    • 方差解释率193
    • 选择正确数量的维度193
    • PCA压缩194
    • 增量PCA195
    • 随机PCA195
    • 核主成分分析196
    • 选择核函数和调整超参数197
    • 局部线性嵌入199
    • 其他降维技巧200
    • 练习201
    • 第二部分 神经网络和深度学习
    • 第9章 运行TensorFlow205
    • 安装207
    • 创建一个计算图并在会话中执行208
    • 管理图209
    • 节点值的生命周期210
    • TensorFlow中的线性回归211
    • 实现梯度下降211
    • 手工计算梯度212
    • 使用自动微分212
    • 使用优化器214
    • 给训练算法提供数据214
    • 保存和恢复模型215
    • 用TensorBoard来可视化图和训练曲线216
    • 命名作用域219
    • 模块化220
    • 共享变量222
    • 练习225
    • 第10章 人工神经网络简介227
    • 从生物神经元到人工神经元227
    • 生物神经元228
    • 具有神经元的逻辑计算229
    • 感知器230
    • 多层感知器和反向传播233
    • 用TensorFlow的高级API来训练MLP236
    • 使用纯TensorFlow训练DNN237
    • 构建阶段237
    • 执行阶段240
    • 使用神经网络241
    • 微调神经网络的超参数242
    • 隐藏层的个数242
    • 每个隐藏层中的神经元数243
    • 激活函数243
    • 练习244
    • 第11章 训练深度神经网络245
    • 梯度消失/爆炸问题245
    • Xavier初始化和He初始化246
    • 非饱和激活函数248
    • 批量归一化250
    • 梯度剪裁254
    • 重用预训练图层255
    • 重用TensorFlow模型255
    • 重用其他框架的模型256
    • 冻结低层257
    • 缓存冻结层257
    • 调整、丢弃或替换高层258
    • 模型动物园258
    • 无监督的预训练259
    • 辅助任务中的预训练260
    • 快速优化器261
    • Momentum优化261
    • Nesterov梯度加速262
    • AdaGrad263
    • RMSProp265
    • Adam优化265
    • 学习速率调度267
    • 通过正则化避免过度拟合269
    • 提前停止269
    • 1和2正则化269
    • dropout270
    • 最大范数正则化273
    • 数据扩充274
    • 实用指南275
    • 练习276
    • 第12章 跨设备和服务器的分布式TensorFlow279
    • 一台机器上的多个运算资源280
    • 安装280
    • 管理GPU RAM282
    • 在设备上操作284
    • 并行执行287
    • 控制依赖288
    • 多设备跨多服务器288
    • 开启一个会话290
    • master和worker服务290
    • 分配跨任务操作291
    • 跨多参数服务器分片变量291
    • 用资源容器跨会话共享状态292
    • 使用TensorFlow队列进行异步通信294
    • 直接从图中加载数据299
    • 在TensorFlow集群上并行化神经网络305
    • 一台设备一个神经网络305
    • 图内与图间复制306
    • 模型并行化308
    • 数据并行化309
    • 练习314
    • 第13章 卷积神经网络31

    读书笔记

    机器学习实战之knn算法pandas

    机器学习实战之knn算法pandas,供大家参考,具体内容如下

    开始学习机器学习实战这本书,打算看完了再回头看 周志华的 机器学习。机器学习实战的代码都是用numpy写的,有些麻烦,所以考虑用pandas来实现代码,也能回顾之前学的 用python进行数据分析。感觉目前章节的测试方法太渣,留着以后学了更多再回头写。

    # coding: gbk
    import pandas as pd
    import numpy as np
    
    
    def getdata(path):
     data = pd.read_csv(path, header=None, sep='\t')
     character = data.iloc[:, :-1]
     label = data.iloc[:, -1]
     chara_max = character.max()
     chara_min = character.min()
     chara_range = chara_max - chara_min
     normal_chara = (character - chara_min) / chara_range
     return normal_chara, label # 获得归一化特征值和标记
    
    
    def knn(inX, normal_chara, label, k):
     data_sub = normal_chara - inX
     data_square = data_sub.applymap(np.square)
     data_sum = data_square.sum(axis=1)
     data_sqrt = data_sum.map(np.sqrt)
     dis_sort = data_sqrt.argsort()
     k_label = label[dis_sort[:k]]
     label_sort = k_label.value_counts()
     res_label = label_sort.index[0]
     return res_label # knn算法分类

    小编为大家分享一段代码:机器学习--KNN基本实现

    # _*_ coding _*_
    import numpy as np
    import math
    import operator
     
    def get_data(dataset):
     x = dataset[:,:-1].astype(np.float)
     y = dataset[:,-1]
     return x,y
    # def cal_dis(a,b):
    # x1,y1 = a[:]
    # x2,y2 = b[:]
    # dist = math.sqrt(math.pow(2,x2)-math.pow(2,x1))
     
    def knnclassifer(dataset,predict,k=3):
     x,y = get_data(dataset)
     dic = {}
     distince = np.sum((predict-x)**2,axis=1)**0.5
     sorted_dict = np.argsort(distince)#[2 1 0 3 4]
     countLabel = {}
     for i in range(k):
     label = y[sorted_dict[i]]
     # print(i,sorted_dict[i],label)
     countLabel[label] = countLabel.get(label,0)+1
     new_dic = sorted(countLabel,key=operator.itemgetter(0),reverse=True)
     return new_dic[0][0]
     
    if __name__ == '__main__':
     dataset = np.loadtxt("dataset.txt",dtype=np.str,delimiter=",")
     
     predict = [2,2]
     label = knnclassifer(dataset,predict,3)
     print(label)

    以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持码农之家。

    上一篇:Android Telephony原理解析与开发指南  下一篇:深度学习实践:计算机视觉

    展开 +

    收起 -

    机器学习相关电子书
    学习笔记
    网友NO.902661

    PHP机器学习库php-ml的简单测试和使用方法

    php-ml是一个使用PHP编写的机器学习库。虽然我们知道,python或者是C++提供了更多机器学习的库,但实际上,他们大多都略显复杂,配置起来让很多新手感到绝望。 php-ml这个机器学习库虽然没有特别高大上的算法,但其具有最基本的机器学习、分类等算法,我们的小公司做一些简单的数据分析、预测等等都是够用的。我们的项目中,追求的应该是性价比,而不是过分的效率和精度。一些算法和库看上去非常厉害,但如果我们考虑快速上线,而我们的技术人员没有机器学习方面的经验,那么复杂的代码和配置反而会拖累我们的项目。而如果我们本身就是做一个简单的机器学习应用,那么研究复杂库和算法的学习成本很显然高了点,而且,项目出了奇奇怪怪的问题,我们能解决吗?需求改变了怎么办?相信大家都有过这种经历:做着做着,程序忽然报错,自己怎么都搞不清楚原因,上谷歌或百度一搜,只搜出一条满足条件的问题,在五年、十年前提问,然后零回复。。。 所以,选择最简单最高效、性价比最高的做法是必须的。php-ml的速度不算慢(赶紧换php7吧),而且精度也不错,毕竟算法都一样,而且php是基于c的。博主最看不惯的就是,拿python和Java,PHP之间比性能,比适用范围。真要性能,请你拿C开发。真要追求适用范围……

    网友NO.438241

    python实现机器学习多元线性回归总结

    总体思路与一元线性回归思想一样,现在将数据以矩阵形式进行运算,更加方便。 一元线性回归实现代码 下面是多元线性回归用Python实现的代码: import numpy as npdef linearRegression(data_X,data_Y,learningRate,loopNum): W = np.zeros(shape=[1, data_X.shape[1]]) # W的shape取决于特征个数,而x的行是样本个数,x的列是特征值个数 # 所需要的W的形式为 行=特征个数,列=1 这样的矩阵。但也可以用1行,再进行转置:W.T # X.shape[0]取X的行数,X.shape[1]取X的列数 b = 0 #梯度下降 for i in range(loopNum): W_derivative = np.zeros(shape=[1, data_X.shape[1]]) b_derivative, cost = 0, 0 WXPlusb = np.dot(data_X, W.T) + b # W.T:W的转置 W_derivative += np.dot((WXPlusb - data_Y).T, data_X) # np.dot:矩阵乘法 b_derivative += np.dot(np.ones(shape=[1, data_X.shape[0]]), WXPlusb - data_Y) cost += (WXPlusb - data_Y)*(WXPlusb - data_Y) W_derivative = W_derivative / data_X.shape[0] # data_X.shape[0]:data_X矩阵的行数,即样本个数 b_derivative = b_derivative / data_X.shape[0] W = W - learningRate*W_derivative b = b - learningRate*b_derivative cost = cost/(2*data_X.shape[0]) if i % 100 == 0: print(cost) print(W) print(b)if __name__== __main__: X = np.random.normal(0, 10, 100) noise = np.random.normal(0, 0.05, 20) W = np.array([[3, 5, 8, 2, 1]]) #设5个特征值 X = X.reshape(20, 5) #reshape成20行5列 noise = noise.reshape(20, 1) Y = np.dot(X, W.T)+6 + noise linearRegression……

    网友NO.620285

    python机器学习之神经网络实现

    神经网络在机器学习中有很大的应用,甚至涉及到方方面面。本文主要是简单介绍一下神经网络的基本理论概念和推算。同时也会介绍一下神经网络在数据分类方面的应用。 首先,当我们建立一个回归和分类模型的时候,无论是用最小二乘法(OLS)还是最大似然值(MLE)都用来使得残差达到最小。因此我们在建立模型的时候,都会有一个loss function。 而在神经网络里也不例外,也有个类似的loss function。 对回归而言: 对分类而言: 然后同样方法,对于W开始求导,求导为零就可以求出极值来。 关于式子中的W。我们在这里以三层的神经网络为例。先介绍一下神经网络的相关参数。 第一层是输入层,第二层是隐藏层,第三层是输出层。 在X1,X2经过W1的加权后,达到隐藏层,然后经过W2的加权,到达输出层 其中, 我们有: 至此,我们建立了一个初级的三层神经网络。 当我们要求其的loss function最小时,我们需要逆向来求,也就是所谓的backpropagation。 我们要分别对W1和W2进行求导,然后求出其极值。 从右手边开始逆推,首先对W2进行求导。 代入损失函数公式: 然后,我们进行化简: 化简到这里,我们同理再对W1进行求导。 我们可以发现当我们在做bp网络时候,有一个逆推回去的误差项,其决定了loss function 的最终大小。 在实……

    网友NO.820016

    Python机器学习之scikit-learn库中KNN算法的封装与使用方法

    本文实例讲述了Python机器学习之scikit-learn库中KNN算法的封装与使用方法。分享给大家供大家参考,具体如下: 1、工具准备,python环境,pycharm 2、在机器学习中,KNN是不需要训练过程的算法,也就是说,输入样例可以直接调用predict预测结果,训练数据集就是模型。当然这里必须将训练数据和训练标签进行拟合才能形成模型。 3、在pycharm中创建新的项目工程,并在项目下新建KNN.py文件。 import numpy as npfrom math import sqrtfrom collections import Counterclass KNNClassifier: def __init__(self,k): """初始化KNN分类器""" assert k = 1 """断言判断k的值是否合法""" self.k = k self._X_train = None self._y_train = None def fit(self,X_train,y_train): """根据训练数据集X_train和Y_train训练KNN分类器,形成模型""" assert X_train.shape[0] == y_train.shape[0] """数据和标签的大小必须一样 assert self.k = X_train.shape[0] """k的值不能超过数据的大小""" self._X_train = X_train self._y_train = y_train return self def predict(self,X_predict): """必须将训练数据集和标签拟合为模型才能进行预测的过程""" assert self._X_train is not None and self._y_train is not None """训练数据和标签不可以是空的""" assert X_predict.shape[1]== self._X_train.shape[1] """待预测数据和训练数据的列(特征个数)必须相同""" y_predict = [self._predict(x) for x in X_predict] return np.array(y_predict) ……

    Copyright 2018-2019 xz577.com 码农之家

    版权责任说明