标签分类 热门分类
当前位置:首页 > 人工智能电子书 > Python3电子书网盘下载
Python机器学习基础教程 Python机器学习基础教程
码小辫

码小辫 提供上传

资源
49
粉丝
31
喜欢
435
评论
2

    Python机器学习基础教程 PDF 原书中文版

    Python3电子书
    • 发布时间:

    给大家带来的一篇关于Python3相关的电子书资源,介绍了关于Python机器学习、基础教程方面的内容,本书是由人民邮电出版社出版,格式为PDF,资源大小28.3 MB,安德里亚斯·穆勒编写,目前豆瓣、亚马逊、当当、京东等电子书综合评分为:9.4,更多相关的学习资源可以参阅 人工智能电子书Python电子书Python视频、等栏目。

  • Python机器学习基础教程 PDF 下载
  • 下载地址:https://pan.baidu.com/s/15_Yg6-jq7PK67sraDZVOB
  • 分享码:glt1
  • Python机器学习基础教程

    Python机器学习基础教程 电子书封面

    读者评价

    从本书提供的mglearn就可以看出来,这本书很不错。 mglearn是作者基于scikitlearn,做的二次开发,让功能更易用,UI更好看。 之前看了《Python数据科学手册》,读到机器学习的部分,完全就是云里雾里了。 但是这本书就不会有这个感觉。
    强推,需要一定的python和机器学习的基础,里面没有理论只有实际运用,内容哪里过时了?基于python3.5的机器学习书,这本书已经走在很前面了。
    在基于TensorFlow的深度学习框架大红大紫之前,其实在2010年前后流行过很多的经典机器学习框架。比如KNN,比如支撑向量机,比如随机森林。相对于深度学习的理论,这些经典的机器学习算法构建在更为精密的数学推导上。运筹学,最优化理论,数学分析,数理统计和随机过程构成了这些算法的理论基础,也是进一步学习各种基于神经网络的深度学习算法的基础。
    本身介绍的scikit-learn是Python中对于经典机器学习框架的集大成者。在NumPy和SciPy之后,在TensorFlow之前,这本书和它介绍的scikit-learn框架和经典机器学习算法的理论非常值得一读。

    内容介绍

    《Python机器学习基础教程》是机器学习入门书,以Python语言介绍。主要内容包括:机器学习的基本概念及其应用;实践中最常用的机器学习算法以及这些算法的优缺点;在机器学习中待处理数据的呈现方式的重要性,以及应重点关注数据的哪些方面;模型评估和调参的高级方法,重点讲解交叉验证和网格搜索;管道的概念;如何将前面各章的方法应用到文本数据上,还介绍了一些文本特有的处理方法。

    目录

    • 第1章 引言  1
    • 第2章 监督学习  21
    • 第3章 无监督学习与预处理  100
    • 第4章 数据表示与特征工程  161
    • 第5章 模型评估与改进  193
    • 第6章 算法链与管道  236
    • 第7章 处理文本数据  250
    • 第8章 全书总结  278
    • · · · · · ·

    上一篇:Python神经网络编程  下一篇:Python数据科学手册

    展开 +

    收起 -

    Python3 相关电子书
    关于Python3的学习笔记
    网友NO.432258

    python实现机器学习之多元线性回归

    总体思路与一元线性回归思想一样,现在将数据以矩阵形式进行运算,更加方便。 一元线性回归实现代码 下面是多元线性回归用Python实现的代码: import numpy as npdef linearRegression(data_X,data_Y,learningRate,loopNum): W = np.zeros(shape=[1, data_X.shape[1]]) # W的shape取决于特征个数,而x的行是样本个数,x的列是特征值个数 # 所需要的W的形式为 行=特征个数,列=1 这样的矩阵。但也可以用1行,再进行转置:W.T # X.shape[0]取X的行数,X.shape[1]取X的列数 b = 0 #梯度下降 for i in range(loopNum): W_derivative = np.zeros(shape=[1, data_X.shape[1]]) b_derivative, cost = 0, 0 WXPlusb = np.dot(data_X, W.T) + b # W.T:W的转置 W_derivative += np.dot((WXPlusb - data_Y).T, data_X) # np.dot:矩阵乘法 b_derivative += np.dot(np.ones(shape=[1, data_X.shape[0]]), WXPlusb - data_Y) cost += (WXPlusb - data_Y)*(WXPlusb - data_Y) W_derivative = W_derivative / data_X.shape[0] # data_X.shape[0]:data_X矩阵的行数,即样本个数 b_derivative = b_derivative / data_X.shape[0] W = W - learningRate*W_derivative b = b - learningRate*b_derivative cost = cost/(2*data_X.shape[0]) if i % 100 == 0: print(cost) print(W) print(b)if __name__== "__main__": X = np.random.normal(0, 10, 100) noise = np.random.normal(0, 0.05, 20) W = np.array([[3, 5, 8, 2, 1]]) #设5个特征值 X = X.reshape(20, 5) #reshape成20行5列 noise = noise.reshape(20, 1) Y = np.dot(X, W.T)+6 + noise linearRegressi……

    网友NO.642911

    python机器学习理论与实战(六)支持向量机

    上节基本完成了SVM的理论推倒,寻找最大化间隔的目标最终转换成求解拉格朗日乘子变量alpha的求解问题,求出了alpha即可求解出SVM的权重W,有了权重也就有了最大间隔距离,但是其实上节我们有个假设:就是训练集是线性可分的,这样求出的alpha在[0,infinite]。但是如果数据不是线性可分的呢?此时我们就要允许部分的样本可以越过分类器,这样优化的目标函数就可以不变,只要引入松弛变量 即可,它表示错分类样本点的代价,分类正确时它等于0,当分类错误时 ,其中Tn表示样本的真实标签-1或者1,回顾上节中,我们把支持向量到分类器的距离固定为1,因此两类的支持向量间的距离肯定大于1的,当分类错误时 肯定也大于1,如(图五)所示(这里公式和图标序号都接上一节)。 (图五) 这样有了错分类的代价,我们把上节(公式四)的目标函数上添加上这一项错分类代价,得到如(公式八)的形式: (公式八) 重复上节的拉格朗日乘子法步骤,得到(公式九): (公式九) 多了一个Un乘子,当然我们的工作就是继续求解此目标函数,继续重复上节的步骤,求导得到(公式十): (公式十) 又因为alpha大于0,而且Un大于0,所以0alphaC,为了解释的清晰一些,我们把(公式九)的KKT条件也发出来(上节中的第三类优化问题……

    网友NO.240023

    python机器学习理论与实战(五)支持向量机

    做机器学习的一定对支持向量机(support vector machine-SVM)颇为熟悉,因为在深度学习出现之前,SVM一直霸占着机器学习老大哥的位子。他的理论很优美,各种变种改进版本也很多,比如latent-SVM, structural-SVM等。这节先来看看SVM的理论吧,在(图一)中A图表示有两类的数据集,图B,C,D都提供了一个线性分类器来对数据进行分类?但是哪个效果好一些? (图一) 可能对这个数据集来说,三个的分类器都一样足够好了吧,但是其实不然,这个只是训练集,现实测试的样本分布可能会比较散一些,各种可能都有,为了应对这种情况,我们要做的就是尽可能的使得线性分类器离两个数据集都尽可能的远,因为这样就会减少现实测试样本越过分类器的风险,提高检测精度。这种使得数据集到分类器之间的间距(margin)最大化的思想就是支持向量机的核心思想,而离分类器距离最近的样本成为支持向量。既然知道了我们的目标就是为了寻找最大边距,怎么寻找支持向量?如何实现?下面以(图二)来说明如何完成这些工作。 (图二) 假设(图二)中的直线表示一个超面,为了方面观看显示成一维直线,特征都是超面维度加一维度的,图中也可以看出,特征是二维,而分类器是一维的。如果特征是三维的,分类器就是一个平面。假设超……

    网友NO.551278

    Python机器学习算法库scikit-learn学习之决策树实现方法详解

    本文实例讲述了Python机器学习算法库scikit-learn学习之决策树实现方法。分享给大家供大家参考,具体如下: 决策树 决策树 (DTs)是一种用于分类和回归的非参数监督学习方法。目标是创建一个模型,通过从数据特性中推导出简单的决策规则来预测目标变量的值。 例如,在下面的例子中,决策树通过一组if-then-else决策规则从数据中学习到近似正弦曲线的情况。树越深,决策规则越复杂,模型也越合适。 决策树的一些优势是: 便于说明和理解,树可以可视化表达; 需要很少的数据准备。其他技术通常需要数据标准化,需要创建虚拟变量,并删除空白值。 使用树的成本是用于对树进行训练的数据点的对数。 能够处理数值和分类数据。其他技术通常是专门分析只有一种变量的数据集。 能够处理多输出问题。 使用白盒模型。如果一个给定的情况在模型中可以观察到,那么这个条件的解释很容易用布尔逻辑来解释。相比之下,在黑盒模型中(例如:在人工神经网络中,结果可能更难解释。 可以使用统计测试验证模型。这样就可以解释模型的可靠性。 即使它的假设在某种程度上违反了生成数据的真实模型,也会表现得很好。 决策树的缺点包括: 决策树学习可能会生成过于复杂的树,不能代表普遍的规则,这就称为过拟合。修剪(目前不……

    网友NO.26137
    网友NO.26137

    机器学习”在最近虽可能不至于到人尽皆知的程度,却也是非常火热的词汇。机器学习是英文单词“Machine Learning”(简称ML)的直译,从字面上便说明了这门技术是让机器进行“学习”的技术。然而我们知道机器终究是死的,所谓的“学习”归根结底亦只是人类“赋予”机器的一系列运算。这个“赋予”的过程可以有很多种实现,而Python正是其中相对容易上手、同时性能又相当不错的一门语言。本文打算先谈谈机器学习相关的一些比较宽泛的知识,再介绍并说明为何要使用Python来作为机器学习的工具。最后,我们会提供一个简短易懂的、具有实际意义的例子来给大家提供一个直观的感受。
    具体而言,本章主要涉及的知识点有:
    机器学习的定义及重要性;
    Python在机器学习领域的优异性;
    如何在电脑上配置Python机器学习的环境;
    机器学习一般性的步骤。

    网友NO.49613
    网友NO.49613

    机器学习回归算法
    倒退就是回到以前的状态: 一个往往比较落后的状态。在有关统计学的书籍中,您会发现回归可以衡量一个变量的平均值和其他值的对应值如何相互关联。
    回归均值
    查尔斯达尔文的表兄弟弗朗西斯高尔顿观察了几代人的甜豌豆大小,他得出的结论是,让大自然完成其工作将产生一系列规模。但是,如果我们选择性地培育甜豌豆的大小,它会产生更大的豌豆。然而随着自然的发展,更大的豌豆开始随着时间的推移产生更小的后代。 我们对豌豆有一定的大小要求,于是我们可以将这些值映射到特定的线或曲线。
    另一个例子:猴子和股票
    1973年,普林斯顿大学教授伯顿·马尔基尔(Burton Malkiel)在他的书“随机漫步华尔街”(The Random Walk Down Wall Street)中提出了一个主张,坚持认为蒙着眼睛的猴子可以通过投掷飞镖选择投资组合做专家同样出色的工作。在这样的选股比赛中,猴子击败了职业选手。但这中情况只出现了一两次,后续,猴子的表现能力又开始下降:它回归到了中庸之道。
    什么是机器学习回归?
    在该图中,线条最适合所有由点标记的数据。使用这一行,我们可以预测x = 70时会找到什么值(具有一定程度的不确定性)。
    作为一种机器学习技术,回归在监督学习中找到了基础。我们使用它来预测连续和数值目标,并从处理我们已知的数据集值开始。它比较已知值和预测值,并将预期值和预测值之间的差异标记为误差/残差。

    Copyright 2018-2020 xz577.com 码农之家

    电子书资源由网友、会员提供上传,本站记录提供者的基本信息及资源来路

    鸣谢: “ 码小辫 ” 公众号提供回调API服务、“ 脚本CDN ”提供网站加速(本站寻求更多赞助支持)

    版权投诉 / 书籍推广 / 赞助:520161757@qq.com

    上传资源(网友、会员均可提供)

    查看最新会员资料及资源信息