标签分类
当前位置:首页 > 人工智能电子书 > 人工智能电子书网盘下载
机器学习导论 机器学习导论
码小辫

码小辫 提供上传

资源
48
粉丝
14
喜欢
208
评论
17

    机器学习导论 PDF 第2版

    人工智能电子书
    • 发布时间:

    给大家带来的一篇关于人工智能相关的电子书资源,介绍了关于机器学习、人工智能方面的内容,本书是由机械工业出版社出版,格式为PDF,资源大小77.7 MB,Ethem Alpaydin编写,目前豆瓣、亚马逊、当当、京东等电子书综合评分为:7.1,更多相关的学习资源可以参阅 人工智能电子书、等栏目。

  • 机器学习导论 PDF 下载
  • 下载地址:https://pan.baidu.com/s/1QGsZ-cOG_FYIStNEspcaAg
  • 分享码:iq81
  • 机器学习导论 PDF

    机器学习导论(原书第2版)》讨论了机器学习在统计学、模式识别、神经网络、人工智能、信号处理等不同领域的应用,其中涵盖了监督学习、贝叶斯决策理论、参数方法、多元方法、多层感知器、局部模型、隐马尔可夫模型、分类算法评估和比较以及增强学习。

    《机器学习导论(原书第2版)》可供完成计算机程序设计、概率论、微积分和线性代数课程的高年级本科生和研究生使用,也可供对机器学习感兴趣的工程技术人员参考。

    近期始终在看Duda 英文版的模式分类,看的很头疼,在图书管遇到了这这书,能够 用于提升信心,觉得这这书的许多层面很Duda的书很类似,乃至许多內容立即就是说引证的Duda的书,內容过度精减,只有益处是将会出书的時间较为晚,提及了许多Duda的书里边沒有的较为最前沿的专业知识。

    的确只有当导论用。

    这这书內容详细介绍的较为全方位,深度学习的各个领域都进而涉及到,但更是由于全,该书也免不了保证各个领域的深层次详细介绍。置于汉语翻译,本人感觉可以,一些地区不太通畅,绝大多数汉语翻译的算是能够 。书中也是许多有不正确的地区,包含关系式,但用心阅读文章,这种不会后患,应当是著作人笔误罢了。读了的是汉化版其次版,大概找了好多个后边章节目录的不正确,第13章中关系式13-12,在其中β是加法噪音的精密度,应改成epsilon是加法噪音的精密度。随后下边的1个几率p听从正太遍布, p中的也相对改成epsilon. 第18章中16.5.1节链 pi(x)=P(E^+|X),应改成pi(x)=P(X|E^+). 关系式16.17 P(E^- X)应改成P(E^-|X)。就先强调这好多个不正确吧。别的不正确,也都很容易找到。总的来说,该书做为新手入门还非常好。在其中假如对关系式计算非常关心的同学们,能够 融合李航的统计学习方法看来。李老师书,较为重视关系式计算。有关深度学习定义的表述过少,恰好与该书能够 相辅相成一下下。李老师的书也称得上汉语深度学习的经典书籍之首。

    目录

    • Introduction to Machine Learning,Second Edition
    • 出版者的话
    • 中文版序
    • 译者序
    • 前言
    • 致谢
    • 关于第2版
    • 符号表
    • 第1章 绪论1
    • 1.1 什么是机器学习1
    • 1.2 机器学习的应用实例3
    • 1.2.1 学习关联性3
    • 1.2.2 分类3
    • 1.2.3 回归6
    • 1.2.4 非监督学习7
    • 1.2.5 增强学习8
    • 1.3 注释8
    • 1.4 相关资源10
    • 1.5 习题11
    • 1.6 参考文献12
    • 第2章 监督学习13
    • 2.1 由实例学习类13
    • 2.2 VC维15
    • 2.3 概率逼近正确学习16
    • 2.4 噪声17
    • 2.5 学习多类18
    • 2.6 回归19
    • 2.7 模型选择与泛化21
    • 2.8 监督机器学习算法的维23
    • 2.9 注释24
    • 2.10 习题25
    • 2.11 参考文献25
    • 第3章 贝叶斯决策定理27
    • 3.1 引言27
    • 3.2 分类28
    • 3.3 损失与风险29
    • 3.4 判别式函数31
    • 3.5 效用理论31
    • 3.6 关联规则32
    • 3.7 注释33
    • 3.8 习题33
    • 3.9 参考文献34
    • 第4章 参数方法35
    • 4.1 引言35
    • 4.2 最大似然估计35
    • 4.2.1 伯努利密度36
    • 4.2.2 多项密度36
    • 4.2.3 高斯(正态)密度37
    • 4.3 评价估计:偏倚和方差37
    • 4.4 贝叶斯估计38
    • 4.5 参数分类40
    • 4.6 回归43
    • 4.7 调整模型的复杂度:偏倚/方差两难选择45
    • 4.8 模型选择过程47
    • 4.9 注释50
    • 4.10 习题50
    • 4.11 参考文献51
    • 第5章 多元方法52
    • 5.1 多元数据52
    • 5.2 参数估计52
    • 5.3 缺失值估计53
    • 5.4 多元正态分布54
    • 5.5 多元分类56
    • 5.6 调整复杂度59
    • 5.7 离散特征61
    • 5.8 多元回归62
    • 5.9 注释63
    • 5.10 习题63
    • 5.11 参考文献64
    • 第6章 维度归约65
    • 6.1 引言65
    • 6.2 子集选择65
    • 6.3 主成分分析67
    • 6.4 因子分析71
    • 6.5 多维定标75
    • 6.6 线性判别分析77
    • 6.7 等距特征映射80
    • 6.8 局部线性嵌入81
    • 6.9 注释83
    • 6.10 习题84
    • 6.11 参考文献85
    • 第7章 聚类86
    • 7.1 引言86
    • 7.2 混合密度86
    • 7.3 k-均值聚类87
    • 7.4 期望最大化算法90
    • 7.5 潜在变量混合模型93
    • 7.6 聚类后的监督学习94
    • 7.7 层次聚类95
    • 7.8 选择簇个数96
    • 7.9 注释96
    • 7.10 习题97
    • 7.11 参考文献97
    • 第8章 非参数方法99
    • 8.1 引言99
    • 8.2 非参数密度估计99
    • 8.2.1 直方图估计100
    • 8.2.2 核估计101
    • 8.2.3 k最近邻估计102
    • 8.3 到多元数据的推广103
    • 8.4 非参数分类104
    • 8.5 精简的最近邻105
    • 8.6 非参数回归:光滑模型106
    • 8.6.1 移动均值光滑106
    • 8.6.2 核光滑108
    • 8.6.3 移动线光滑108
    • 8.7 如何选择光滑参数109
    • 8.8 注释110
    • 8.9 习题111
    • 8.10 参考文献112
    • 第9章 决策树113
    • 9.1 引言113
    • 9.2 单变量树114
    • 9.2.1 分类树114
    • 9.2.2 回归树118
    • 9.3 剪枝119
    • 9.4 由决策树提取规则120
    • 9.5 由数据学习规则121
    • 9.6 多变量树124
    • 9.7 注释125
    • 9.8 习题126
    • 9.9 参考文献127
    • 第10章 线性判别式129
    • 10.1 引言129
    • 10.2 推广线性模型130
    • 10.3 线性判别式的几何意义131
    • 10.3.1 两类问题131
    • 10.3.2 多类问题132
    • 10.4 逐对分离132
    • 10.5 参数判别式的进一步讨论133
    • 10.6 梯度下降135
    • 10.7 逻辑斯谛判别式135
    • 10.7.1 两类问题135
    • 10.7.2 多类问题138
    • 10.8 回归判别式141
    • 10.9 注释142
    • 10.10 习题143
    • 10.11 参考文献143
    • 第11章 多层感知器144
    • 11.1 引言144
    • 11.1.1 理解人脑144
    • 11.1.2 神经网络作为并行处理的典范145
    • 11.2 感知器146
    • 11.3 训练感知器148
    • 11.4 学习布尔函数150
    • 11.5 多层感知器151
    • 11.6 作为普适近似的MLP153
    • 11.7 后向传播算法154
    • 11.7.1 非线性回归154
    • 11.7.2 两类判别式157
    • 11.7.3 多类判别式158
    • 11.7.4 多个隐藏层158
    • 11.8 训练过程158
    • 11.8.1 改善收敛性158
    • 11.8.2 过分训练159
    • 11.8.3 构造网络161
    • 11.8.4 线索162
    • 11.9 调整网络规模163
    • 11.10 学习的贝叶斯观点164
    • 11.11 维度归约165
    • 11.12 学习时间167
    • 11.12.1 时间延迟神经网络167
    • 11.12.2 递归网络168
    • 11.13 注释169
    • 11.14 习题170
    • 11.15 参考文献170
    • 第12章 局部模型173
    • 12.1 引言173
    • 12.2 竞争学习173
    • 12.2.1 在线k-均值173
    • 12.2.2 自适应共鸣理论176
    • 12.2.3 自组织映射177
    • 12.3 径向基函数178
    • 12.4 结合基于规则的知识182
    • 12.5 规范化基函数182
    • 12.6 竞争的基函数184
    • 12.7 学习向量量化186
    • 12.8 混合专家模型186
    • 12.8.1 协同专家模型188
    • 12.8.2 竞争专家模型188
    • 12.9 层次混合专家模型189
    • 12.10 注释189
    • 12.11 习题190
    • 12.12 参考文献190
    • 第13章 核机器192
    • 13.1 引言192
    • 13.2 最佳分离超平面193
    • 13.3 不可分情况:软边缘超平面195
    • 13.4 v-SVM197
    • 13.5 核技巧198
    • 13.6 向量核199
    • 13.7 定义核200
    • 13.8 多核学习201
    • 13.9 多类核机器202
    • 13.10 用于回归的核机器203
    • 13.11 一类核机器206
    • 13.12 核维度归约208
    • 13.13 注释209
    • 13.14 习题209
    • 13.15 参考文献210
    • 第14章 贝叶斯估计212
    • 14.1 引言212
    • 14.2 分布参数的估计213
    • 14.2.1 离散变量213
    • 14.2.2 连续变量215
    • 14.3 函数参数的贝叶斯估计216
    • 14.3.1 回归216
    • 14.3.2 基函数或核函数的使用218
    • 14.3.3 贝叶斯分类219
    • 14.4 高斯过程221
    • 14.5 注释223
    • 14.6 习题224
    • 14.7 参考文献224
    • 第15章 隐马尔可夫模型225
    • 15.1 引言225
    • 15.2 离散马尔可夫过程225
    • 15.3 隐马尔可夫模型227
    • 15.4 HMM的三个基本问题229
    • 15.5 估值问题229
    • 15.6 寻找状态序列231
    • 15.7 学习模型参数233
    • 15.8 连续观测235
    • 15.9 带输入的HMM236
    • 15.10 HMM中的模型选择236
    • 15.11 注释237
    • 15.12 习题238
    • 15.13 参考文献239
    • 第16章 图方法240
    • 16.1 引言240
    • 16.2 条件独立的典型情况241
    • 16.3 图模型实例245
    • 16.3.1 朴素贝叶斯分类245
    • 16.3.2 隐马尔可夫模型246
    • 16.3.3 线性回归248
    • 16.4 d-分离248
    • 16.5 信念传播249
    • 16.5.1 链249
    • 16.5.2 树250
    • 16.5.3 多树251
    • 16.5.4 结树252
    • 16.6 无向图:马尔可夫随机场253
    • 16.7 学习图模型的结构254
    • 16.8 影响图255
    • 16.9 注释255
    • 16.10 习题256
    • 16.11 参考文献256
    • 第17章 组合多学习器258
    • 17.1 基本原理258
    • 17.2 产生有差异的学习器258
    • 17.3 模型组合方案260
    • 17.4 投票法261
    • 17.5 纠错输出码263
    • 17.6 装袋265
    • 17.7 提升265
    • 17.8 重温混合专家模型267
    • 17.9 层叠泛化268
    • 17.10 调整系综268
    • 17.11 级联269
    • 17.12 注释270
    • 17.13 习题271
    • 17.14 参考文献272
    • 第18章 增强学习275
    • 18.1 引言275
    • 18.2 单状态情况:K臂赌博机问题276
    • 18.3 增强学习基础277
    • 18.4 基于模型的学习278
    • 18.4.1 价值迭代279
    • 18.4.2 策略迭代279
    • 18.5 时间差分学习280
    • 18.5.1 探索策略280
    • 18.5.2 确定性奖励和动作280
    • 18.5.3 非确定性奖励和动作282
    • 18.5.4 资格迹283
    • 18.6 推广285
    • 18.7 部分可观测状态286
    • 18.7.1 场景286
    • 18.7.2 例子:老虎问题287
    • 18.8 注释290
    • 18.9 习题291
    • 18.10 参考文献292
    • 第19章 机器学习实验的设计与分析294
    • 19.1 引言294
    • 19.2 因素、响应和实验策略296
    • 19.3 响应面设计297
    • 19.4 随机化、重复和阻止298
    • 19.5 机器学习实验指南298
    • 19.6 交叉验证和再抽样方法300
    • 19.6.1 K-折交叉验证300
    • 19.6.2 5×2交叉验证301
    • 19.6.3 自助法302
    • 19.7 度量分类器的性能302
    • 19.8 区间估计304
    • 19.9 假设检验307
    • 19.10 评估分类算法的性能308
    • 19.10.1 二项检验308
    • 19.10.2 近似正态检验309
    • 19.10.3 t检验309
    • 19.11 比较两个分类算法309
    • 19.11.1 McNemar检验310
    • 19.11.2 K-折交叉验证配对t检验310
    • 19.11.3 5×2交叉验证配对t检验311
    • 19.11.4 5×2交叉验证配对F检验311
    • 19.12 比较多个算法:方差分析312
    • 19.13 在多个数据集上比较315
    • 19.13.1 比较两个算法315
    • 19.13.2 比较多个算法317
    • 19.14 注释317
    • 19.15 习题318
    • 19.16 参考文献319
    • 附录A 概率论320
    • 索引328

    上一篇:DRBD权威指南  下一篇:实现领域驱动设计

    展开 +

    收起 -

    人工智能相关电子书
    学习笔记
    网友NO.430551

    python机器学习之神经网络实现

    神经网络在机器学习中有很大的应用,甚至涉及到方方面面。本文主要是简单介绍一下神经网络的基本理论概念和推算。同时也会介绍一下神经网络在数据分类方面的应用。 首先,当我们建立一个回归和分类模型的时候,无论是用最小二乘法(OLS)还是最大似然值(MLE)都用来使得残差达到最小。因此我们在建立模型的时候,都会有一个loss function。 而在神经网络里也不例外,也有个类似的loss function。 对回归而言: 对分类而言: 然后同样方法,对于W开始求导,求导为零就可以求出极值来。 关于式子中的W。我们在这里以三层的神经网络为例。先介绍一下神经网络的相关参数。 第一层是输入层,第二层是隐藏层,第三层是输出层。 在X1,X2经过W1的加权后,达到隐藏层,然后经过W2的加权,到达输出层 其中, 我们有: 至此,我们建立了一个初级的三层神经网络。 当我们要求其的loss function最小时,我们需要逆向来求,也就是所谓的backpropagation。 我们要分别对W1和W2进行求导,然后求出其极值。 从右手边开始逆推,首先对W2进行求导。 代入损失函数公式: 然后,我们进行化简: 化简到这里,我们同理再对W1进行求导。 我们可以发现当我们在做bp网络时候,有一个逆推回去的误差项,其决定了loss function 的最终大小。 在实……

    网友NO.311706

    机器学习实战之knn算法pandas

    机器学习实战之knn算法pandas,供大家参考,具体内容如下 开始学习机器学习实战这本书,打算看完了再回头看 周志华的 机器学习。机器学习实战的代码都是用numpy写的,有些麻烦,所以考虑用pandas来实现代码,也能回顾之前学的 用python进行数据分析。感觉目前章节的测试方法太渣,留着以后学了更多再回头写。 # coding: gbkimport pandas as pdimport numpy as npdef getdata(path): data = pd.read_csv(path, header=None, sep='\t') character = data.iloc[:, :-1] label = data.iloc[:, -1] chara_max = character.max() chara_min = character.min() chara_range = chara_max - chara_min normal_chara = (character - chara_min) / chara_range return normal_chara, label # 获得归一化特征值和标记def knn(inX, normal_chara, label, k): data_sub = normal_chara - inX data_square = data_sub.applymap(np.square) data_sum = data_square.sum(axis=1) data_sqrt = data_sum.map(np.sqrt) dis_sort = data_sqrt.argsort() k_label = label[dis_sort[:k]] label_sort = k_label.value_counts() res_label = label_sort.index[0] return res_label # knn算法分类 小编为大家分享一段代码:机器学习--KNN基本实现 # _*_ coding _*_import numpy as npimport mathimport operator def get_data(dataset): x = dataset[:,:-1].astype(np.float) y = dataset[:,-1] return x,y# def cal_dis(a,b):# x1,y1 = a[:]# x2,y2 = b[:]# dist = math.sqrt(math.pow(2,x2)-math.pow(2,x1)) def knnclassifer(dataset,predict,k=3): x,y = get_da……

    网友NO.782827

    Python机器学习之scikit-learn库中KNN算法的封装与使用方法

    本文实例讲述了Python机器学习之scikit-learn库中KNN算法的封装与使用方法。分享给大家供大家参考,具体如下: 1、工具准备,python环境,pycharm 2、在机器学习中,KNN是不需要训练过程的算法,也就是说,输入样例可以直接调用predict预测结果,训练数据集就是模型。当然这里必须将训练数据和训练标签进行拟合才能形成模型。 3、在pycharm中创建新的项目工程,并在项目下新建KNN.py文件。 import numpy as npfrom math import sqrtfrom collections import Counterclass KNNClassifier: def __init__(self,k): """初始化KNN分类器""" assert k = 1 """断言判断k的值是否合法""" self.k = k self._X_train = None self._y_train = None def fit(self,X_train,y_train): """根据训练数据集X_train和Y_train训练KNN分类器,形成模型""" assert X_train.shape[0] == y_train.shape[0] """数据和标签的大小必须一样 assert self.k = X_train.shape[0] """k的值不能超过数据的大小""" self._X_train = X_train self._y_train = y_train return self def predict(self,X_predict): """必须将训练数据集和标签拟合为模型才能进行预测的过程""" assert self._X_train is not None and self._y_train is not None """训练数据和标签不可以是空的""" assert X_predict.shape[1]== self._X_train.shape[1] """待预测数据和训练数据的列(特征个数)必须相同""" y_predict = [self._predict(x) for x in X_predict] return np.array(y_predict) ……

    Copyright 2018-2019 xz577.com 码农之家

    版权责任说明