当前位置:主页 > 计算机电子书 > 人工智能 > 机器学习下载
机器学习导论(第2版)

机器学习导论(第2版) PDF 完整超清版

  • 更新:2021-11-15
  • 大小:61.88MB
  • 类别:机器学习
  • 作者:米罗斯拉夫.库巴特
  • 出版:机械工业出版社
  • 格式:PDF

  • 资源介绍
  • 相关推荐

《机器学习导论(原书第2版)》讨论了机器学习在统计学、模式识别、神经网络、人工智能、信号处理等不同领域的应用,其中涵盖了监督学习、贝叶斯决策理论、参数方法、多元方法、多层感知器、局部模型、隐马尔可夫模型、分类算法评估和比较以及增强学习。《机器学习导论(原书第2版)》可供完成计算机程序设计、概率论、微积分和线性代数课程的高年级本科生和研究生使用,也可供对机器学习感兴趣的工程技术人员参考。

目录

  • Introduction to Machine Learning,Second Edition
  • 出版者的话
  • 中文版序
  • 译者序
  • 前言
  • 致谢
  • 关于第2版
  • 符号表
  • 第1章绪论1
  • 1.1什么是机器学习1
  • 1.2机器学习的应用实例3
  • 1.2.1学习关联性3
  • 1.2.2分类3
  • 1.2.3回归6
  • 1.2.4非监督学习7
  • 1.2.5增强学习8
  • 1.3注释8
  • 1.4相关资源10
  • 1.5习题11
  • 1.6参考文献12
  • 第2章监督学习13
  • 2.1由实例学习类13
  • 2.2VC维15
  • 2.3概率逼近正确学习16
  • 2.4噪声17
  • 2.5学习多类18
  • 2.6回归19
  • 2.7模型选择与泛化21
  • 2.8监督机器学习算法的维23
  • 2.9注释24
  • 2.10习题25
  • 2.11参考文献25
  • 第3章贝叶斯决策定理27
  • 3.1引言27
  • 3.2分类28
  • 3.3损失与风险29
  • 3.4判别式函数31
  • 3.5效用理论31
  • 3.6关联规则32
  • 3.7注释33
  • 3.8习题33
  • 3.9参考文献34
  • 第4章参数方法35
  • 4.1引言35
  • 4.2最大似然估计35
  • 4.2.1伯努利密度36
  • 4.2.2多项密度36
  • 4.2.3高斯(正态)密度37
  • 4.3评价估计:偏倚和方差37
  • 4.4贝叶斯估计38
  • 4.5参数分类40
  • 4.6回归43
  • 4.7调整模型的复杂度:偏倚/方差两难选择45
  • 4.8模型选择过程47
  • 4.9注释50
  • 4.10习题50
  • 4.11参考文献51
  • 第5章多元方法52
  • 5.1多元数据52
  • 5.2参数估计52
  • 5.3缺失值估计53
  • 5.4多元正态分布54
  • 5.5多元分类56
  • 5.6调整复杂度59
  • 5.7离散特征61
  • 5.8多元回归62
  • 5.9注释63
  • 5.10习题63
  • 5.11参考文献64
  • 第6章维度归约65
  • 6.1引言65
  • 6.2子集选择65
  • 6.3主成分分析67
  • 6.4因子分析71
  • 6.5多维定标75
  • 6.6线性判别分析77
  • 6.7等距特征映射80
  • 6.8局部线性嵌入81
  • 6.9注释83
  • 6.10习题84
  • 6.11参考文献85
  • 第7章聚类86
  • 7.1引言86
  • 7.2混合密度86
  • 7.3k-均值聚类87
  • 7.4期望最大化算法90
  • 7.5潜在变量混合模型93
  • 7.6聚类后的监督学习94
  • 7.7层次聚类95
  • 7.8选择簇个数96
  • 7.9注释96
  • 7.10习题97
  • 7.11参考文献97
  • 第8章非参数方法99
  • 8.1引言99
  • 8.2非参数密度估计99
  • 8.2.1直方图估计100
  • 8.2.2核估计101
  • 8.2.3k最近邻估计102
  • 8.3到多元数据的推广103
  • 8.4非参数分类104
  • 8.5精简的最近邻105
  • 8.6非参数回归:光滑模型106
  • 8.6.1移动均值光滑106
  • 8.6.2核光滑108
  • 8.6.3移动线光滑108
  • 8.7如何选择光滑参数109
  • 8.8注释110
  • 8.9习题111
  • 8.10参考文献112
  • 第9章决策树113
  • 9.1引言113
  • 9.2单变量树114
  • 9.2.1分类树114
  • 9.2.2回归树118
  • 9.3剪枝119
  • 9.4由决策树提取规则120
  • 9.5由数据学习规则121
  • 9.6多变量树124
  • 9.7注释125
  • 9.8习题126
  • 9.9参考文献127
  • 第10章线性判别式129
  • 10.1引言129
  • 10.2推广线性模型130
  • 10.3线性判别式的几何意义131
  • 10.3.1两类问题131
  • 10.3.2多类问题132
  • 10.4逐对分离132
  • 10.5参数判别式的进一步讨论133
  • 10.6梯度下降135
  • 10.7逻辑斯谛判别式135
  • 10.7.1两类问题135
  • 10.7.2多类问题138
  • 10.8回归判别式141
  • 10.9注释142
  • 10.10习题143
  • 10.11参考文献143
  • 第11章多层感知器144
  • 11.1引言144
  • 11.1.1理解人脑144
  • 11.1.2神经网络作为并行处理的典范145
  • 11.2感知器146
  • 11.3训练感知器148
  • 11.4学习布尔函数150
  • 11.5多层感知器151
  • 11.6作为普适近似的MLP153
  • 11.7后向传播算法154
  • 11.7.1非线性回归154
  • 11.7.2两类判别式157
  • 11.7.3多类判别式158
  • 11.7.4多个隐藏层158
  • 11.8训练过程158
  • 11.8.1改善收敛性158
  • 11.8.2过分训练159
  • 11.8.3构造网络161
  • 11.8.4线索162
  • 11.9调整网络规模163
  • 11.10学习的贝叶斯观点164
  • 11.11维度归约165
  • 11.12学习时间167
  • 11.12.1时间延迟神经网络167
  • 11.12.2递归网络168
  • 11.13注释169
  • 11.14习题170
  • 11.15参考文献170
  • 第12章局部模型173
  • 12.1引言173
  • 12.2竞争学习173
  • 12.2.1在线k-均值173
  • 12.2.2自适应共鸣理论176
  • 12.2.3自组织映射177
  • 12.3径向基函数178
  • 12.4结合基于规则的知识182
  • 12.5规范化基函数182
  • 12.6竞争的基函数184
  • 12.7学习向量量化186
  • 12.8混合专家模型186
  • 12.8.1协同专家模型188
  • 12.8.2竞争专家模型188
  • 12.9层次混合专家模型189
  • 12.10注释189
  • 12.11习题190
  • 12.12参考文献190
  • 第13章核机器192
  • 13.1引言192
  • 13.2最佳分离超平面193
  • 13.3不可分情况:软边缘超平面195
  • 13.4v-SVM197
  • 13.5核技巧198
  • 13.6向量核199
  • 13.7定义核200
  • 13.8多核学习201
  • 13.9多类核机器202
  • 13.10用于回归的核机器203
  • 13.11一类核机器206
  • 13.12核维度归约208
  • 13.13注释209
  • 13.14习题209
  • 13.15参考文献210
  • 第14章贝叶斯估计212
  • 14.1引言212
  • 14.2分布参数的估计213
  • 14.2.1离散变量213
  • 14.2.2连续变量215
  • 14.3函数参数的贝叶斯估计216
  • 14.3.1回归216
  • 14.3.2基函数或核函数的使用218
  • 14.3.3贝叶斯分类219
  • 14.4高斯过程221
  • 14.5注释223
  • 14.6习题224
  • 14.7参考文献224
  • 第15章隐马尔可夫模型225
  • 15.1引言225
  • 15.2离散马尔可夫过程225
  • 15.3隐马尔可夫模型227
  • 15.4HMM的三个基本问题229
  • 15.5估值问题229
  • 15.6寻找状态序列231
  • 15.7学习模型参数233
  • 15.8连续观测235
  • 15.9带输入的HMM236
  • 15.10HMM中的模型选择236
  • 15.11注释237
  • 15.12习题238
  • 15.13参考文献239
  • 第16章图方法240
  • 16.1引言240
  • 16.2条件独立的典型情况241
  • 16.3图模型实例245
  • 16.3.1朴素贝叶斯分类245
  • 16.3.2隐马尔可夫模型246
  • 16.3.3线性回归248
  • 16.4d-分离248
  • 16.5信念传播249
  • 16.5.1链249
  • 16.5.2树250
  • 16.5.3多树251
  • 16.5.4结树252
  • 16.6无向图:马尔可夫随机场253
  • 16.7学习图模型的结构254
  • 16.8影响图255
  • 16.9注释255
  • 16.10习题256
  • 16.11参考文献256
  • 第17章组合多学习器258
  • 17.1基本原理258
  • 17.2产生有差异的学习器258
  • 17.3模型组合方案260
  • 17.4投票法261
  • 17.5纠错输出码263
  • 17.6装袋265
  • 17.7提升265
  • 17.8重温混合专家模型267
  • 17.9层叠泛化268
  • 17.10调整系综268
  • 17.11级联269
  • 17.12注释270
  • 17.13习题271
  • 17.14参考文献272
  • 第18章增强学习275
  • 18.1引言275
  • 18.2单状态情况:K臂赌博机问题276
  • 18.3增强学习基础277
  • 18.4基于模型的学习278
  • 18.4.1价值迭代279
  • 18.4.2策略迭代279
  • 18.5时间差分学习280
  • 18.5.1探索策略280
  • 18.5.2确定性奖励和动作280
  • 18.5.3非确定性奖励和动作282
  • 18.5.4资格迹283
  • 18.6推广285
  • 18.7部分可观测状态286
  • 18.7.1场景286
  • 18.7.2例子:老虎问题287
  • 18.8注释290
  • 18.9习题291
  • 18.10参考文献292
  • 第19章机器学习实验的设计与分析294
  • 19.1引言294
  • 19.2因素、响应和实验策略296
  • 19.3响应面设计297
  • 19.4随机化、重复和阻止298
  • 19.5机器学习实验指南298
  • 19.6交叉验证和再抽样方法300
  • 19.6.1K-折交叉验证300
  • 19.6.25×2交叉验证301
  • 19.6.3自助法302
  • 19.7度量分类器的性能302
  • 19.8区间估计304
  • 19.9假设检验307
  • 19.10评估分类算法的性能308
  • 19.10.1二项检验308
  • 19.10.2近似正态检验309
  • 19.10.3t检验309
  • 19.11比较两个分类算法309
  • 19.11.1McNemar检验310
  • 19.11.2K-折交叉验证配对t检验310
  • 19.11.35×2交叉验证配对t检验311
  • 19.11.45×2交叉验证配对F检验311
  • 19.12比较多个算法:方差分析312
  • 19.13在多个数据集上比较315
  • 19.13.1比较两个算法315
  • 19.13.2比较多个算法317
  • 19.14注释317
  • 19.15习题318
  • 19.16参考文献319
  • 附录A概率论320
  • 索引328
     

资源下载

资源下载地址1:https://pan.baidu.com/s/1Tr-HwWwtQEwNcHzAXgDxBw

相关资源

网友留言