标签分类
当前位置:首页 > 人工智能电子书 > 机器学习电子书网盘下载
scikit-learn机器学习

scikit-learn机器学习 影印第2版电子书

官方价: 37.7

更 新:

scikit-learn机器学习 PDF 下载

下载地址:https://pan.baidu.com/s/1HxQlkgQ9C4WNv1AeUoubz

分享码:g0t2

给大家带来的一篇关于机器学习相关的电子书资源,介绍了关于scikit-learn、机器学习方面的内容,本书是由人民邮电出版社出版,格式根据源资源分为PDF、epub、mobi、azw3其中一种或多种格式,资源大小176.4 MB,加文·海克编写,目前豆瓣、亚马逊、当当、京东等电子书综合评分为:8.3,更多相关的学习资源可以参阅 人工智能电子书、等栏目。

scikit-learn机器学习 第2版 PDF

深度学习是1个十分受欢迎的技术性,这书内容包括多种多样设备学习模型,包含时兴的机器学习算法,比如K近邻优化算法、逻辑回归、朴素贝叶斯、K 平均值优化算法、决策树及其神经网络算法。此外,还探讨了数据预处理、超主要参数提升和集成化方式等主题风格。 阅读文章完这书以后,用户将学好搭建用以文本文档归类、图像识别技术、广告词检验等每日任务的系统软件,还将学得怎么使用scikit-learn类库的API从类型自变量、文字和图象中获取特点,怎样评定实体模型的特性,并对怎样提高实体模型的特性创建判断力。此外,还将把握结合实际应用scikit-learn搭建高效率实体模型需要的专业技能,并可以根据好用的对策进行高級每日任务。近些年,Python語言变成了广火爆的计算机语言,而它在深度学习行业也是非常好的主要表现。scikit-learn是1个用Python語言撰写的机器学习算法库,它能够保持一连串常见的机器学习算法,是1个好专用工具。 这书根据14章內容,详尽地详细介绍了一连串设备学习模型和scikit-learn的应用方法。这书从深度学习的基础知识说起,包含了简易线性回归、K-近邻优化算法、特征提取、多元线性回归、逻辑回归、朴素贝叶斯、离散系统归类、决策树重归、随机森林、感知机、支持向量机、神经网络算法、K-平均值优化算法、主成分分析等关键话题讨论。 这书合适深度学习行业的技术工程师学习培训,也合适愿意掌握scikit-learn的大数据工程师阅读文章。根据阅读文章这书,用户将合理提高自己在设备学习模型的搭建和评定层面的工作能力,并可以高效率地处理深度学习难点。

目录

  • 第 1章 机器学习基础 1
  • 1.1 定义机器学习 1
  • 1.2 从经验中学习 2
  • 1.3 机器学习任务 3
  • 1.4 训练数据、测试数据和验证数据 4
  • 1.5 偏差和方差 6
  • 1.6 scikit-learn简介 8
  • 1.7 安装scikit-learn 8
  • 1.7.1 使用pip安装 9
  • 1.7.2 在Windows系统下安装 9
  • 1.7.3 在Ubuntu 16.04系统下安装 10
  • 1.7.4 在Mac OS系统下安装 10
  • 1.7.5 安装Anaconda 10
  • 1.7.6 验证安装 10
  • 1.8 安装pandas、Pillow、NLTK和matplotlib 11
  • 1.9 小结 11
  • 第 2章 简单线性回归 12
  • 2.1 简单线性回归 12
  • 2.1.1 用代价函数评价模型的拟合性 15
  • 2.1.2 求解简单线性回归的OLS 17
  • 2.2 评价模型 19
  • 2.3 小结 21
  • 第3章 用K-近邻算法分类和回归 22
  • 3.1 K-近邻模型 22
  • 3.2 惰性学习和非参数模型 23
  • 3.3 KNN模型分类 23
  • 3.4 KNN模型回归 31
  • 3.5 小结 36
  • 第4章 特征提取 37
  • 4.1 从类别变量中提取特征 37
  • 4.2 特征标准化 38
  • 4.3 从文本中提取特征 39
  • 4.3.1 词袋模型 39
  • 4.3.2 停用词过滤 42
  • 4.3.3 词干提取和词形还原 43
  • 4.3.4 tf-idf权重扩展词包 45
  • 4.3.5 空间有效特征向量化与哈希技巧 48
  • 4.3.6 词向量 49
  • 4.4 从图像中提取特征 52
  • 4.4.1 从像素强度中提取特征 53
  • 4.4.2 使用卷积神经网络激活项作为特征 54
  • 4.5 小结 56
  • 第5章 从简单线性回归到多元线性回归 58
  • 5.1 多元线性回归 58
  • 5.2 多项式回归 62
  • 5.3 正则化 66
  • 5.4 应用线性回归 67
  • 5.4.1 探索数据 67
  • 5.4.2 拟合和评估模型 69
  • 5.5 梯度下降法 72
  • 5.6 小结 76
  • 第6章 从线性回归到逻辑回归 77
  • 6.1 使用逻辑回归进行二元分类 77
  • 6.2 垃圾邮件过滤 79
  • 6.2.1 二元分类性能指标 81
  • 6.2.2 准确率 82
  • 6.2.3 精准率和召回率 83
  • 6.2.4 计算F1值 84
  • 6.2.5 ROC AUC 84
  • 6.3 使用网格搜索微调模型 86
  • 6.4 多类别分类 88
  • 6.5 多标签分类和问题转换 93
  • 6.6 小结 97
  • 第7章 朴素贝叶斯 98
  • 7.1 贝叶斯定理 98
  • 7.2 生成模型和判别模型 100
  • 7.3 朴素贝叶斯 100
  • 7.4 在scikit-learn中使用朴素贝叶斯 102
  • 7.5 小结 106
  • 第8章 非线性分类和决策树回归 107
  • 8.1 决策树 107
  • 8.2 训练决策树 108
  • 8.2.1 选择问题 109
  • 8.2.2 基尼不纯度 116
  • 8.3 使用scikit-learn类库创建决策树 117
  • 8.4 小结 120
  • 第9章 集成方法:从决策树到随机森林 121
  • 9.1 套袋法 121
  • 9.2 推进法 124
  • 9.3 堆叠法 126
  • 9.4 小结 128
  • 第 10章 感知机 129
  • 10.1 感知机 129
  • 10.1.1 激活函数 130
  • 10.1.2 感知机学习算法 131
  • 10.1.3 使用感知机进行二元分类 132
  • 10.1.4 使用感知机进行文档分类 138
  • 10.2 感知机的局限性 139
  • 10.3 小结 140
  • 第 11章 从感知机到支持向量机 141
  • 11.1 核与核技巧 141
  • 11.2 最大间隔分类和支持向量 145
  • 11.3 用scikit-learn分类字符 147
  • 11.3.1 手写数字分类 147
  • 11.3.2 自然图片字符分类 150
  • 11.4 小结 152
  • 第 12章 从感知机到人工神经网络 153
  • 12.1 非线性决策边界 154
  • 12.2 前馈人工神经网络和反馈人工神经网络 155
  • 12.3 多层感知机 155
  • 12.4 训练多层感知机 157
  • 12.4.1 反向传播 158
  • 12.4.2 训练一个多层感知机逼近XOR函数 162
  • 12.4.3 训练一个多层感知机分类手写数字 164
  • 12.5 小结 165
  • 第 13章 K-均值算法 166
  • 13.1 聚类 166
  • 13.2 K-均值算法 168
  • 13.2.1 局部最优值 172
  • 13.2.2 用肘部法选择K值 173
  • 13.3 评估聚类 176
  • 13.4 图像量化 178
  • 13.5 通过聚类学习特征 180
  • 13.6 小结 184
  • 第 14章 使用主成分分析降维 185
  • 14.1 主成分分析 185
  • 14.1.1 方差、协方差和协方差矩阵 188
  • 14.1.2 特征向量和特征值 190
  • 14.1.3 进行主成分分析 192
  • 14.2 使用PCA对高维数据可视化 194
  • 14.3 使用PCA进行面部识别 196
  • 14.4 小结 199

上一篇:量化自我:如何利用数据成就更幸福的自己  下一篇:Python项目开发案例集锦

展开 +

收起 -

机器学习 相关电子书
机器学习 学习笔记
网友NO.824740

Python机器学习算法库scikit-learn学习之决策树实现方法详解

本文实例讲述了Python机器学习算法库scikit-learn学习之决策树实现方法。分享给大家供大家参考,具体如下: 决策树 决策树 (DTs)是一种用于分类和回归的非参数监督学习方法。目标是创建一个模型,通过从数据特性中推导出简单的决策规则来预测目标变量的值。 例如,在下面的例子中,决策树通过一组if-then-else决策规则从数据中学习到近似正弦曲线的情况。树越深,决策规则越复杂,模型也越合适。 决策树的一些优势是: 便于说明和理解,树可以可视化表达; 需要很少的数据准备。其他技术通常需要数据标准化,需要创建虚拟变量,并删除空白值。 使用树的成本是用于对树进行训练的数据点的对数。 能够处理数值和分类数据。其他技术通常是专门分析只有一种变量的数据集。 能够处理多输出问题。 使用白盒模型。如果一个给定的情况在模型中可以观察到,那么这个条件的解释很容易用布尔逻辑来解释。相比之下,在黑盒模型中(例如:在人工神经网络中,结果可能更难解释。 可以使用统计测试验证模型。这样就可以解释模型的可靠性。 即使它的假设在某种程度上违反了生成数据的真实模型,也会表现得很好。 决策树的缺点包括: 决策树学习可能会生成过于复杂的树,不能代表普遍的规则,这就称为过拟合。修剪(目前不……

网友NO.883517

python中scikit-learn机器代码实例

我们给大家带来了关于学习python中scikit-learn机器代码的相关具体实例,以下就是全部代码内容: # -*- coding: utf-8 -*- import numpyfrom sklearn import metricsfrom sklearn.svm import LinearSVCfrom sklearn.naive_bayes import MultinomialNBfrom sklearn import linear_modelfrom sklearn.datasets import load_irisfrom sklearn.cross_validation import train_test_splitfrom sklearn.preprocessing import OneHotEncoder, StandardScalerfrom sklearn import cross_validationfrom sklearn import preprocessing#import iris_data def load_data(): iris = load_iris() x, y = iris.data, iris.target x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.20, random_state=42) return x_train,y_train,x_test,y_test def train_clf3(train_data, train_tags): clf = LinearSVC(C=1100.0)#default with 'rbf' clf.fit(train_data,train_tags) return clf def train_clf(train_data, train_tags): clf = MultinomialNB(alpha=0.01) print numpy.asarray(train_tags) clf.fit(train_data, numpy.asarray(train_tags)) return clf def evaluate(actual, pred): m_precision = metrics.precision_score(actual, pred) m_recall = metrics.recall_score(actual, pred) print 'precision:{0:.3f}'.format(m_precision) print 'recall:{0:0.3f}'.format(m_recall) print 'f1-score:{0:.8f}'.format(metrics.f1_score(actual,pred)); x_train,y_train,x_test,y_test = load_data() clf = train_clf(x_train, y_train) pred = clf.predict(x_test)evaluate(numpy.asarray(y_test), pred)print metrics.classification_report(y_test, pred) 使用自定……

网友NO.170010

Python机器学习之scikit-learn库中KNN算法的封装与使用方法

本文实例讲述了Python机器学习之scikit-learn库中KNN算法的封装与使用方法。分享给大家供大家参考,具体如下: 1、工具准备,python环境,pycharm 2、在机器学习中,KNN是不需要训练过程的算法,也就是说,输入样例可以直接调用predict预测结果,训练数据集就是模型。当然这里必须将训练数据和训练标签进行拟合才能形成模型。 3、在pycharm中创建新的项目工程,并在项目下新建KNN.py文件。 import numpy as npfrom math import sqrtfrom collections import Counterclass KNNClassifier: def __init__(self,k): """初始化KNN分类器""" assert k = 1 """断言判断k的值是否合法""" self.k = k self._X_train = None self._y_train = None def fit(self,X_train,y_train): """根据训练数据集X_train和Y_train训练KNN分类器,形成模型""" assert X_train.shape[0] == y_train.shape[0] """数据和标签的大小必须一样 assert self.k = X_train.shape[0] """k的值不能超过数据的大小""" self._X_train = X_train self._y_train = y_train return self def predict(self,X_predict): """必须将训练数据集和标签拟合为模型才能进行预测的过程""" assert self._X_train is not None and self._y_train is not None """训练数据和标签不可以是空的""" assert X_predict.shape[1]== self._X_train.shape[1] """待预测数据和训练数据的列(特征个数)必须相同""" y_predict = [self._predict(x) for x in X_predict] return np.array(y_predict) ……

网友NO.572164

python机器学习库scikit-learn:SVR的基本应用

scikit-learn是python的第三方机器学习库,里面集成了大量机器学习的常用方法。例如:贝叶斯,svm,knn等。 scikit-learn的官网 : http://scikit-learn.org/stable/index.html点击打开链接 SVR是支持向量回归(support vector regression)的英文缩写,是支持向量机(SVM)的重要的应用分支。 scikit-learn中提供了基于libsvm的SVR解决方案。 PS:libsvm是台湾大学林智仁教授等开发设计的一个简单、易于使用和快速有效的SVM模式识别与回归的软件包。 我们自己随机产生一些值,然后使用sin函数进行映射,使用SVR对数据进行拟合 from __future__ import divisionimport timeimport numpy as npfrom sklearn.svm import SVRfrom sklearn.model_selection import GridSearchCVfrom sklearn.model_selection import learning_curveimport matplotlib.pyplot as plt rng = np.random.RandomState(0) ############################################################################## 生成随机数据X = 5 * rng.rand(10000, 1)y = np.sin(X).ravel() # 在标签中对每50个结果标签添加噪声 y[::50] += 2 * (0.5 - rng.rand(int(X.shape[0]/50))) X_plot = np.linspace(0, 5, 100000)[:, None] ############################################################################## 训练SVR模型 #训练规模train_size = 100#初始化SVRsvr = GridSearchCV(SVR(kernel='rbf', gamma=0.1), cv=5, param_grid={"C": [1e0, 1e1, 1e2, 1e3], "gamma": np.logspace(-2, 2, 5)})#记录训练时间t0 = time.time()#训练svr.fit(……

码小辫

码小辫 发起

资源
25
粉丝
14
喜欢
278
评论
4

    Copyright 2018-2019 xz577.com 码农之家

    版权责任说明