标签分类 热门分类
当前位置:首页 > 人工智能电子书 > 机器学习电子书网盘下载
机器学习基础教程 机器学习基础教程
weixin_44163

weixin_44163 提供上传

资源
29
粉丝
37
喜欢
276
评论
16

    机器学习基础教程 PDF 扫描中文版

    机器学习电子书
    • 发布时间:

    给大家带来的一篇关于机器学习相关的电子书资源,介绍了关于机器学习、基础教程方面的内容,本书是由机械工业出版社出版,格式为PDF,资源大小57 MB,罗杰斯编写,目前豆瓣、亚马逊、当当、京东等电子书综合评分为:8.5,更多相关的学习资源可以参阅 人工智能电子书、等栏目。

  • 机器学习基础教程 PDF 下载
  • 下载地址:https://pan.baidu.com/s/1rjXPWEv3GMoU9o6wcJKLq
  • 分享码:h1p6
  • 机器学习基础教程

    机器学习基础教程》详细介绍机器学习技术性及运用的关键优化算法,重中之重叙述了解流行的机器学习算法需要的关键数学课和统计分析专业知识。书中详细介绍的优化算法包含机器学习的关键难题:归类、聚类分析法和投射。因为这书是机器学习基本课程内容的教材内容,因此尽量避免了数学课难度系数,仅对一部分关键优化算法得出详尽的叙述和计算,而对绝大多数优化算法仅得出简易详细介绍,目地取决于使大学生做好基本,提高自信心和兴趣爱好,激励她们深化学习培训该行业的高級主题风格或从业有关科学研究工作中。

    这书是机器学习导论课程内容教材内容,合适作为电子计算机、自动化技术及有关技术专业低年级本科毕业或硕士研究生的教材内容,也能够科学研究工作人员和工程项目专业技术人员参照。

    目录

    • 第1章线性建模:最小二乘法
    • 第2章线性建模:最大似然方法
    • 第3章机器学习的贝叶斯方法
    • 第4章贝叶斯推理
    • 第5章分类
    • 第6章聚类分析
    • 第7章主成分分析与隐变量模型
    • ......

    上一篇:精通lambda表达式:Java多核编程  下一篇:现代控制系统

    展开 +

    收起 -

    机器学习 相关电子书
    关于机器学习的学习笔记
    网友NO.353811

    python实现机器学习多元线性回归总结

    总体思路与一元线性回归思想一样,现在将数据以矩阵形式进行运算,更加方便。 一元线性回归实现代码 下面是多元线性回归用Python实现的代码: import numpy as npdef linearRegression(data_X,data_Y,learningRate,loopNum): W = np.zeros(shape=[1, data_X.shape[1]]) # W的shape取决于特征个数,而x的行是样本个数,x的列是特征值个数 # 所需要的W的形式为 行=特征个数,列=1 这样的矩阵。但也可以用1行,再进行转置:W.T # X.shape[0]取X的行数,X.shape[1]取X的列数 b = 0 #梯度下降 for i in range(loopNum): W_derivative = np.zeros(shape=[1, data_X.shape[1]]) b_derivative, cost = 0, 0 WXPlusb = np.dot(data_X, W.T) + b # W.T:W的转置 W_derivative += np.dot((WXPlusb - data_Y).T, data_X) # np.dot:矩阵乘法 b_derivative += np.dot(np.ones(shape=[1, data_X.shape[0]]), WXPlusb - data_Y) cost += (WXPlusb - data_Y)*(WXPlusb - data_Y) W_derivative = W_derivative / data_X.shape[0] # data_X.shape[0]:data_X矩阵的行数,即样本个数 b_derivative = b_derivative / data_X.shape[0] W = W - learningRate*W_derivative b = b - learningRate*b_derivative cost = cost/(2*data_X.shape[0]) if i % 100 == 0: print(cost) print(W) print(b)if __name__== __main__: X = np.random.normal(0, 10, 100) noise = np.random.normal(0, 0.05, 20) W = np.array([[3, 5, 8, 2, 1]]) #设5个特征值 X = X.reshape(20, 5) #reshape成20行5列 noise = noise.reshape(20, 1) Y = np.dot(X, W.T)+6 + noise linearRegression……

    网友NO.720150

    python机器学习之神经网络实现

    神经网络在机器学习中有很大的应用,甚至涉及到方方面面。本文主要是简单介绍一下神经网络的基本理论概念和推算。同时也会介绍一下神经网络在数据分类方面的应用。 首先,当我们建立一个回归和分类模型的时候,无论是用最小二乘法(OLS)还是最大似然值(MLE)都用来使得残差达到最小。因此我们在建立模型的时候,都会有一个loss function。 而在神经网络里也不例外,也有个类似的loss function。 对回归而言: 对分类而言: 然后同样方法,对于W开始求导,求导为零就可以求出极值来。 关于式子中的W。我们在这里以三层的神经网络为例。先介绍一下神经网络的相关参数。 第一层是输入层,第二层是隐藏层,第三层是输出层。 在X1,X2经过W1的加权后,达到隐藏层,然后经过W2的加权,到达输出层 其中, 我们有: 至此,我们建立了一个初级的三层神经网络。 当我们要求其的loss function最小时,我们需要逆向来求,也就是所谓的backpropagation。 我们要分别对W1和W2进行求导,然后求出其极值。 从右手边开始逆推,首先对W2进行求导。 代入损失函数公式: 然后,我们进行化简: 化简到这里,我们同理再对W1进行求导。 我们可以发现当我们在做bp网络时候,有一个逆推回去的误差项,其决定了loss function 的最终大小。 在实……

    网友NO.779669

    python机器学习之KNN分类算法

    本文为大家分享了python机器学习之KNN分类算法,供大家参考,具体内容如下 1、KNN分类算法 KNN分类算法(K-Nearest-Neighbors Classification),又叫K近邻算法,是一个概念极其简单,而分类效果又很优秀的分类算法。 他的核心思想就是,要确定测试样本属于哪一类,就寻找所有训练样本中与该测试样本“距离”最近的前K个样本,然后看这K个样本大部分属于哪一类,那么就认为这个测试样本也属于哪一类。简单的说就是让最相似的K个样本来投票决定。 这里所说的距离,一般最常用的就是多维空间的欧式距离。这里的维度指特征维度,即样本有几个特征就属于几维。 KNN示意图如下所示。(图片来源:百度百科) 上图中要确定测试样本绿色属于蓝色还是红色。 显然,当K=3时,将以1:2的投票结果分类于红色;而K=5时,将以3:2的投票结果分类于蓝色。 KNN算法简单有效,但没有优化的暴力法效率容易达到瓶颈。如样本个数为N,特征维度为D的时候,该算法时间复杂度呈O(DN)增长。 所以通常KNN的实现会把训练数据构建成K-D Tree(K-dimensional tree),构建过程很快,甚至不用计算D维欧氏距离,而搜索速度高达O(D*log(N))。 不过当D维度过高,会产生所谓的”维度灾难“,最终效率会降低到与暴力法一样。 因此通常D20以后,最好使用更……

    网友NO.168060

    Python机器学习之scikit-learn库中KNN算法的封装与使用方法

    本文实例讲述了Python机器学习之scikit-learn库中KNN算法的封装与使用方法。分享给大家供大家参考,具体如下: 1、工具准备,python环境,pycharm 2、在机器学习中,KNN是不需要训练过程的算法,也就是说,输入样例可以直接调用predict预测结果,训练数据集就是模型。当然这里必须将训练数据和训练标签进行拟合才能形成模型。 3、在pycharm中创建新的项目工程,并在项目下新建KNN.py文件。 import numpy as npfrom math import sqrtfrom collections import Counterclass KNNClassifier: def __init__(self,k): """初始化KNN分类器""" assert k = 1 """断言判断k的值是否合法""" self.k = k self._X_train = None self._y_train = None def fit(self,X_train,y_train): """根据训练数据集X_train和Y_train训练KNN分类器,形成模型""" assert X_train.shape[0] == y_train.shape[0] """数据和标签的大小必须一样 assert self.k = X_train.shape[0] """k的值不能超过数据的大小""" self._X_train = X_train self._y_train = y_train return self def predict(self,X_predict): """必须将训练数据集和标签拟合为模型才能进行预测的过程""" assert self._X_train is not None and self._y_train is not None """训练数据和标签不可以是空的""" assert X_predict.shape[1]== self._X_train.shape[1] """待预测数据和训练数据的列(特征个数)必须相同""" y_predict = [self._predict(x) for x in X_predict] return np.array(y_predict) ……

    Copyright 2018-2019 xz577.com 码农之家

    版权责任说明