标签分类
当前位置:首页 > 人工智能电子书 > 机器学习电子书网盘下载
机器学习之路:Caffe、Keras、scikit-learn实战 机器学习之路:Caffe、Keras、scikit-learn实战
harlw

harlw 提供上传

资源
35
粉丝
43
喜欢
257
评论
4

    机器学习之路:Caffe、Keras、scikit-learn实战 PDF 全书超清版

    机器学习电子书
    • 发布时间:

    给大家带来的一篇关于机器学习相关的电子书资源,介绍了关于机器学习、Caffe、Keras、scikit-learn方面的内容,本书是由电子工业出版社出版,格式为PDF,资源大小48.3MB,阿布 胥嘉幸编写,目前豆瓣、亚马逊、当当、京东等电子书综合评分为:8.1,更多相关的学习资源可以参阅 人工智能电子书、等栏目。

    机器学习之路:Caffe、Keras、scikit-learn实战 PDF 下载

    下载地址:https://pan.baidu.com/s/1wWZi7bR7n461Herzwm8aR

    分享码:kf69

    机器学习之路:Caffe、Keras、scikit-learn实战 PDF

    都说这年代不容易点机器学习过意不去外出,但深奥的数学课基础理论,繁杂的优化算法又让许多人忘而却步,不知道如何下手,《机器学习篇》绕开基础理论阻碍,连通了这条循序渐进的机器学习之途。

    丰富多彩的实战演练实例解读,详细介绍如何把机器学习技术性应用到个股量化投资、照片3D渲染、识别图片等行业。

    机器学习必须这条摆脱过高基础理论门坎的新手入门之途。这书《机器学习篇》从小红帽采蘑菇的经典故事开场,详细介绍了基本的机器学习归类实体模型的训炼(第1章)。怎样评定、调节实体模型?怎样有效地挖掘事情的特点?怎样运用好多个实体模型相互充分发挥?事后章节目录一步步叙述了怎样提升实体模型,尽快进行归类预测分析每日任务(第2章),而且基本试着将这种技术性应用到金融业股票买卖中(第3章)。大自然*好的离散系统实体模型莫过人们的人的大脑。《深度学习篇》从详细介绍并比照某些普遍的深度学习架构刚开始(第4章),解读了DNN实体模型的形象化基本原理,试着得出某些简易的分子生物学表述,进行简单的图片鉴别每日任务(第5章)。事后章节目录在这个基础上,进行更加繁杂的识别图片CNN实体模型(第6章)。然后,这书展现了应用Caffe进行1个详细的识别图片新项目,从提前准备uci数据集,到进行鉴别每日任务(第7章)。后边简易叙述了RNN实体模型(第8章),然后展现了1个将深度学习技术性落地式到图片编辑行业的新项目(第9章)。

    目录

    • 第一篇 机器学习篇
    • 第1 章 初识机器学习 .................................................................................... 2
    • 1.1 机器学习——赋予机器“学习”的灵魂 ..................................................................... 2
    • 1.1.1 小红帽识别毒蘑菇 ................................................................................................................... 2
    • 1.1.2 三种机器学习问题 ................................................................................................................... 6
    • 1.1.3 常用符号 .................................................................................................................................. 6
    • 1.1.4 回顾 .......................................................................................................................................... 7
    • 1.2 KNN——相似的邻居请投票 ........................................................................................ 7
    • 1.2.1 模型原理 .................................................................................................................................. 7
    • 1.2.2 鸢尾花卉数据集(IRIS) ....................................................................................................... 9
    • 1.2.3 训练模型 .................................................................................................................................. 9
    • 1.2.4 评估模型 ................................................................................................................................ 12
    • 1.2.5 关于KNN ............................................................................................................................... 14
    • 1.2.6 运用KNN 模型 ...................................................................................................................... 15
    • 1.2.7 回顾 ........................................................................................................................................ 16
    • 1.3 逻辑分类I:线性分类模型 ........................................................................................ 16
    • 1.3.1 参数化的模型 ........................................................................................................................ 16
    • 1.3.2 逻辑分类:预测..................................................................................................................... 18
    • 1.3.3 逻辑分类:评估..................................................................................................................... 22
    • 1.3.4 逻辑分类:训练..................................................................................................................... 23
    • 1.3.5 回顾 ........................................................................................................................................ 24
    • 1.4 逻辑分类II:线性分类模型 ....................................................................................... 24
    • 1.4.1 寻找模型的权重..................................................................................................................... 24
    • VI ?O 机器学习之路——Caffe、Keras、scikit-learn 实战
    • 1.4.2 去均值和归一化..................................................................................................................... 31
    • 1.4.3 实现 ........................................................................................................................................ 33
    • 1.4.4 回顾 ........................................................................................................................................ 34
    • 第2 章 机器学习进阶 .................................................................................. 35
    • 2.1 特征工程 ...................................................................................................................... 35
    • 2.1.1 泰坦尼克号生存预测 ............................................................................................................. 35
    • 2.1.2 两类特征 ................................................................................................................................ 38
    • 2.1.3 构造非线性特征..................................................................................................................... 41
    • 2.1.4 回顾 ........................................................................................................................................ 45
    • 2.2 调试模型 ...................................................................................................................... 46
    • 2.2.1 模型调试的目标..................................................................................................................... 46
    • 2.2.2 调试模型 ................................................................................................................................ 49
    • 2.2.3 回顾 ........................................................................................................................................ 52
    • 2.3 分类模型评估指标 ...................................................................................................... 53
    • 2.3.1 混淆矩阵系指标..................................................................................................................... 53
    • 2.3.2 评估曲线 ................................................................................................................................ 58
    • 2.3.3 回顾 ........................................................................................................................................ 61
    • 2.4 回归模型 ...................................................................................................................... 61
    • 2.4.1 回归与分类 ............................................................................................................................ 61
    • 2.4.2 线性回归 ................................................................................................................................ 62
    • 2.4.3 波士顿房价预测..................................................................................................................... 66
    • 2.4.4 泰坦尼克号生存预测:回归预测特征年龄Age .................................................................. 69
    • 2.4.5 线性模型与非线性模型 ......................................................................................................... 72
    • 2.4.6 回顾 ........................................................................................................................................ 73
    • 2.5 决策树模型 .................................................................................................................. 73
    • 2.5.1 信息与编码 ............................................................................................................................ 74
    • 2.5.2 决策树 .................................................................................................................................... 76
    • 2.5.3 对比线性模型和决策树模型的表现 ..................................................................................... 77
    • 2.5.4 回顾 ........................................................................................................................................ 79
    • 2.6 模型融合 ...................................................................................................................... 80
    • 2.6.1 融合成群体(Ensamble) ..................................................................................................... 80
    • 2.6.2 Bagging:随机森林(Random Forest) ............................................................................... 82
    • 目录 ?O VII
    • 2.6.3 Boosting:GBDT ................................................................................................................... 83
    • 2.6.4 Stacking ......................................................................................

    上一篇:Python数据分析与应用  下一篇:Kotlin开发快速入门与实战

    展开 +

    收起 -

    机器学习 相关电子书
    学习笔记
    网友NO.415087

    python实现机器学习之元线性回归

    一、理论知识准备 1.确定假设函数 如:y=2x+7 其中,(x,y)是一组数据,设共有m个 2.误差cost 用平方误差代价函数 3.减小误差(用梯度下降) 二、程序实现步骤 1.初始化数据 x、y:样本 learning rate:学习率 循环次数loopNum:梯度下降次数 2.梯度下降 循环(循环loopNum次): (1)算偏导(需要一个for循环遍历所有数据) (2)利用梯度下降数学式子 三、程序代码 import numpy as npdef linearRegression(data_x,data_y,learningRate,loopNum): w,b=0,0 #梯度下降 for i in range(loopNum): w_derivative, b_derivative, cost = 0, 0, 0 for j in range(len(data_x)): wxPlusb=w*data_x[j]+b w_derivative+=(wxPlusb-data_y[j])*data_x[j] b_derivative+=wxPlusb-data_y[j] cost+=(wxPlusb-data_y[j])*(wxPlusb-data_y[j]) w_derivative=w_derivative/len(data_x) b_derivative=b_derivative/len(data_x) w = w - learningRate*w_derivative b = b - learningRate*b_derivative cost = cost/(2*len(data_x)) if i%100==0: print(cost) print(w) print(b)if __name__== "__main__": #_x:protected __x:private x=np.random.normal(0,10,100) noise=np.random.normal(0,0.05,100) y=2*x+7+noise linearRegression(x,y,0.01,5000) 四、输出 1.输出cost 可以看到,一开始的误差是很大的,然后减小了 最后几次输出的cost没有变化,可以将训练的次数减小一点 2.训练完的w和b 和目标w=2,b=7很接近 以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多……

    网友NO.451809

    Python机器学习算法之k均值聚类(k-means)

    一开始的目的是学习十大挖掘算法(机器学习算法),并用编码实现一遍,但越往后学习,越往后实现编码,越发现自己的编码水平低下,学习能力低。这一个k-means算法用Python实现竟用了三天时间,可见编码水平之低,而且在编码的过程中看了别人的编码,才发现自己对numpy认识和运用的不足,在自己的代码中有很多可以优化的地方,比如求均值的地方可以用mean直接对数组求均值,再比如去最小值的下标,我用的是argsort排序再取列表第一个,但是有argmin可以直接用啊。下面的代码中这些可以优化的并没有改,这么做的原因是希望做到抛砖引玉,欢迎大家丢玉,如果能给出优化方法就更好了 一.k-means算法 人以类聚,物以群分,k-means聚类算法就是体现。数学公式不要,直接用白话描述的步骤就是: 1.随机选取k个质心(k值取决于你想聚成几类) 2.计算样本到质心的距离,距离质心距离近的归为一类,分为k类 3.求出分类后的每类的新质心 4.判断新旧质心是否相同,如果相同就代表已经聚类成功,如果没有就循环2-3直到相同 用程序的语言描述就是: 1.输入样本 2.随机去k个质心 3.重复下面过程知道算法收敛: 计算样本到质心距离(欧几里得距离) 样本距离哪个质心近,就记为那一类 计算每个类别的新质心(平均值) 二.需求分……

    网友NO.389819

    python实现机器学习之多元线性回归

    总体思路与一元线性回归思想一样,现在将数据以矩阵形式进行运算,更加方便。 一元线性回归实现代码 下面是多元线性回归用Python实现的代码: import numpy as npdef linearRegression(data_X,data_Y,learningRate,loopNum): W = np.zeros(shape=[1, data_X.shape[1]]) # W的shape取决于特征个数,而x的行是样本个数,x的列是特征值个数 # 所需要的W的形式为 行=特征个数,列=1 这样的矩阵。但也可以用1行,再进行转置:W.T # X.shape[0]取X的行数,X.shape[1]取X的列数 b = 0 #梯度下降 for i in range(loopNum): W_derivative = np.zeros(shape=[1, data_X.shape[1]]) b_derivative, cost = 0, 0 WXPlusb = np.dot(data_X, W.T) + b # W.T:W的转置 W_derivative += np.dot((WXPlusb - data_Y).T, data_X) # np.dot:矩阵乘法 b_derivative += np.dot(np.ones(shape=[1, data_X.shape[0]]), WXPlusb - data_Y) cost += (WXPlusb - data_Y)*(WXPlusb - data_Y) W_derivative = W_derivative / data_X.shape[0] # data_X.shape[0]:data_X矩阵的行数,即样本个数 b_derivative = b_derivative / data_X.shape[0] W = W - learningRate*W_derivative b = b - learningRate*b_derivative cost = cost/(2*data_X.shape[0]) if i % 100 == 0: print(cost) print(W) print(b)if __name__== "__main__": X = np.random.normal(0, 10, 100) noise = np.random.normal(0, 0.05, 20) W = np.array([[3, 5, 8, 2, 1]]) #设5个特征值 X = X.reshape(20, 5) #reshape成20行5列 noise = noise.reshape(20, 1) Y = np.dot(X, W.T)+6 + noise linearRegressi……

    网友NO.768600

    基于Python和Scikit-Learn的机器学习探索

    你好,%用户名%! 我叫Alex,我在机器学习和网络图分析(主要是理论)有所涉猎。我同时在为一家俄罗斯移动运营商开发大数据产品。这是我第一次在网上写文章,不喜勿喷。 现在,很多人想开发高效的算法以及参加机器学习的竞赛。所以他们过来问我:”该如何开始?”。一段时间以前,我在一个俄罗斯联邦政府的下属机构中领导了媒体和社交网络大数据分析工具的开发。我仍然有一些我团队使用过的文档,我乐意与你们分享。前提是读者已经有很好的数学和机器学习方面的知识(我的团队主要由MIPT(莫斯科物理与技术大学)和数据分析学院的毕业生构成)。 这篇文章是对数据科学的简介,这门学科最近太火了。机器学习的竞赛也越来越多(如,Kaggle, TudedIT),而且他们的资金通常很可观。 R和Python是提供给数据科学家的最常用的两种工具。每一个工具都有其优缺点,但Python最近在各个方面都有所胜出(仅为鄙人愚见,虽然我两者都用)。这一切的发生是因为Scikit-Learn库的腾空出世,它包含有完善的文档和丰富的机器学习算法。 请注意,我们将主要在这篇文章中探讨机器学习算法。通常用Pandas包去进行主数据分析会比较好,而且这很容易你自己完成。所以,让我们集中精力在实现上。为了确定性,我们假设有一个特……

    Copyright 2018-2019 xz577.com 码农之家

    版权责任说明