当前位置:首页 > 电子书 > 电子书下载 > 人工智能 >
分布式机器学习:算法、理论与实践 分布式机器学习:算法、理论与实践
41002583

41002583 提供上传

资源
13
粉丝
5
喜欢
461
评论
14

    分布式机器学习:算法、理论与实践 PDF 完整版

    机器学习电子书
    • 发布时间:2019-12-12 08:33:31

    给大家带来的一篇关于机器学习相关的电子书资源,介绍了关于分布式、机器学习、算法、理论与实践方面的内容,本书是由机械工业出版社出版,格式为PDF,资源大小164.4 MB,刘铁岩 陈薇 王太峰 高飞编写,目前豆瓣、亚马逊、当当、京东等电子书综合评分为:7.4。

  • 分布式机器学习:算法、理论与实践 PDF 下载
  • 下载地址:https://pan.baidu.com/s/1CONpzcJbhZhUpowlEwLVW
  • 提取码:axv7
  • 分布式机器学习:算法、理论与实践 PDF

    《分布式机器学习:算法、理论与实践》旨在全面介绍分布式机器学习的现状,深入分析其中的核心技术问题,并且讨论该领域未来的发展方向。

    全书共12章。第1章是绪论,向大家展示分布式机器学习这个领域的全景。第2章介绍机器学习的基础知识。第3章到第8章是本书的核心部分,向大家细致地讲解分布式机器学习的框架及其各个功能模块。其中第3章给出整个分布式机器学习框架的综述,而第4章到第8章则分别针对其中的数据与模型划分模块、单机优化模块、通信模块、数据与模型聚合模块加以介绍。接下来的三章是对前面内容的总结与升华。其中第9章介绍由分布式机器学习框架中不同选项所组合出来的各式各样的分布式机器学习算法,第10章讨论这些算法的理论性质,第11章则介绍几个主流的分布式机器学习系统(包括Spark MLlib 迭代式MapReduce系统,Multiverso参数服务器系统,TensorFlow数据流系统)。*后的第12章是全书的结语,在对全书内容进行简要总结之后,着重讨论分布式机器学习这个领域未来的发展方向。

    本书基于微软亚洲研究院机器学习研究团队多年的研究成果和实践经验写成,既可以作为研究生从事分布式机器学习方向研究的参考文献,也可以作为人工智能从业者进行算法选择和系统设计的工具书。

    人工智能大潮中,市场上已有许多机器学习书籍,但是分布式机器学习的专门书籍还很少见。本书是希望学习和了解分布式机器学习的读者的福音。

    目录

    • 第1章 绪论/ 1
    • 第2章 机器学习基础/ 9
    • 第3章 分布式机器学习框架/ 41
    • 第4章 单机优化之确定性算法/ 61
    • 第5章 单机优化之随机算法/ 85
    • 第6章 数据与模型并行/ 113
    • 第7章 通信机制/ 135
    • 第8章 数据与模型聚合/ 159
    • 第9章 分布式机器学习算法/ 177
    • 第10章 分布式机器学习理论/ 209
    • 第11章 分布式机器学习系统/ 229
    • 第12章 结语/ 255索引/ 260

    读书笔记

    Python中实现机器学习功能的四种方法介绍

    本篇文章给大家带来的内容是关于Python中实现机器学习功能的四种方法介绍,有一定的参考价值,有需要的朋友可以参考一下,希望对你有所帮助。

    在本文中,我们将介绍从数据集中选择要素的不同方法; 并使用Scikit-learn(sklearn)库讨论特征选择算法的类型及其在Python中的实现 :

    1. 单变量特征选择
    2. 递归特征消除(RFE)
    3. 主成分分析(PCA)
    4. 特征选择 (feature importance)

    单变量特征选择

    统计测试可用于选择与输出变量具有最强关系的那些特征。

    scikit-learn库提供SelectKBest类,可以与一组不同的统计测试一起使用,以选择特定数量的功能。

    以下示例使用chi平方(chi ^ 2)统计检验非负特征来选择Pima Indians糖尿病数据集中的四个最佳特征:

    #Feature Extraction with Univariate Statistical Tests (Chi-squared for classification)
    
    #Import the required packages
    
    #Import pandas to read csv import pandas
    
    #Import numpy for array related operations import numpy
    
    #Import sklearn's feature selection algorithm
    
    from sklearn.feature_selection import SelectKBest
    
    #Import chi2 for performing chi square test from sklearn.feature_selection import chi2
    
    #URL for loading the dataset
    
    url ="https://archive.ics.uci.edu/ml/machine-learning-databases/pima-indians diabetes/pima-indians-diabetes.data"
    
    #Define the attribute names
    
    names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class']
    
    #Create pandas data frame by loading the data from URL
    
    dataframe = pandas.read_csv(url, names=names)
    
    #Create array from data values
    
    array = dataframe.values
    
    #Split the data into input and target
    
    X = array[:,0:8]
    
    Y = array[:,8]
    
    #We will select the features using chi square
    
    test = SelectKBest(score_func=chi2, k=4)
    
    #Fit the function for ranking the features by score
    
    fit = test.fit(X, Y)
    
    #Summarize scores numpy.set_printoptions(precision=3) print(fit.scores_)
    
    #Apply the transformation on to dataset
    
    features = fit.transform(X)
    
    #Summarize selected features print(features[0:5,:])

    每个属性的分数和所选的四个属性(分数最高的分数):plas,test,mass和age。

    每个功能的分数:

    [111.52   1411.887 17.605 53.108  2175.565   127.669 5.393
    
    181.304]

    特色:

    [[148. 0. 33.6 50. ]
    
    [85. 0. 26.6 31. ]
    
    [183. 0. 23.3 32. ]
    
    [89. 94. 28.1 21. ]
    
    [137. 168. 43.1 33. ]]

    递归特征消除(RFE)

    RFE通过递归删除属性并在剩余的属性上构建模型来工作。它使用模型精度来识别哪些属性(和属性组合)对预测目标属性的贡献最大。以下示例使用RFE和逻辑回归算法来选择前三个特征。算法的选择并不重要,只要它技巧性和一致性:

    #Import the required packages
    
    #Import pandas to read csv import pandas
    
    #Import numpy for array related operations import numpy
    
    #Import sklearn's feature selection algorithm from sklearn.feature_selection import RFE
    
    #Import LogisticRegression for performing chi square test from sklearn.linear_model import LogisticRegression
    
    #URL for loading the dataset
    
    url =
    
    "https://archive.ics.uci.edu/ml/machine-learning-databases/pima-indians-dia betes/pima-indians-diabetes.data"
    
    #Define the attribute names
    
    names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class']
    
    #Create pandas data frame by loading the data from URL
    
    dataframe = pandas.read_csv(url, names=names)
    
    #Create array from data values
    
    array = dataframe.values
    
    #Split the data into input and target
    
    X = array[:,0:8]
    
    Y = array[:,8]
    
    #Feature extraction
    
    model = LogisticRegression() rfe = RFE(model, 3)
    
    fit = rfe.fit(X, Y)
    
    print("Num Features: %d"% fit.n_features_) print("Selected Features: %s"% fit.support_) print("Feature Ranking: %s"% fit.ranking_)

    执行后,我们将获得:

    Num Features: 3
    
    Selected Features: [ True False False False False   True  True False]
    
    Feature Ranking: [1 2 3 5 6 1 1 4]

    您可以看到RFE选择了前三个功能,如preg,mass和pedi。这些在support_数组中标记为True,并在ranking_数组中标记为选项1。

    主成分分析(PCA)

    PCA使用线性代数将数据集转换为压缩形式。通常,它被认为是数据简化技术。PCA的一个属性是您可以选择转换结果中的维数或主成分数。

    在以下示例中,我们使用PCA并选择三个主要组件:

    #Import the required packages
    
    #Import pandas to read csv import pandas
    
    #Import numpy for array related operations import numpy
    
    #Import sklearn's PCA algorithm
    
    from sklearn.decomposition import PCA
    
    #URL for loading the dataset
    
    url =
    
    "https://archive.ics.uci.edu/ml/machine-learning-databases/pima-indians diabetes/pima-indians-diabetes.data"
    
    #Define the attribute names
    
    names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class']
    
    dataframe = pandas.read_csv(url, names=names)
    
    #Create array from data values
    
    array = dataframe.values
    
    #Split the data into input and target
    
    X = array[:,0:8]
    
    Y = array[:,8]
    
    #Feature extraction
    
    pca = PCA(n_components=3) fit = pca.fit(X)
    
    #Summarize components
    
    print("Explained Variance: %s") % fit.explained_variance_ratio_
    
    print(fit.components_)

    您可以看到转换后的数据集(三个主要组件)与源数据几乎没有相似之处:

    Explained Variance: [ 0.88854663   0.06159078  0.02579012]
    
    [[ -2.02176587e-03    9.78115765e-02 1.60930503e-02    6.07566861e-02
    
    9.93110844e-01          1.40108085e-02 5.37167919e-04   -3.56474430e-03]
    
    [ -2.26488861e-02   -9.72210040e-01              -1.41909330e-01  5.78614699e-02 9.46266913e-02   -4.69729766e-02               -8.16804621e-04  -1.40168181e-01
    
    [ -2.24649003e-02 1.43428710e-01                 -9.22467192e-01  -3.07013055e-01 2.09773019e-02   -1.32444542e-01                -6.39983017e-04  -1.25454310e-01]]

    特征选择 (feature importance)

    特征重要性是用于使用训练有监督的分类器来选择特征的技术。当我们训练分类器(例如决策树)时,我们会评估每个属性以创建分裂; 我们可以将此度量用作特征选择器。让我们详细了解它。

    随机森林是最受欢迎的 机器学习方法之一,因为它们具有相对较好的准确性,稳健性和易用性。它们还提供了两种直接的特征选择方法 - 平均降低杂质平均降低精度

    随机森林由许多决策树组成。决策树中的每个节点都是单个要素上的条件,旨在将数据集拆分为两个,以便类似的响应值最终出现在同一个集合中。选择(局部)最佳条件的度量称为杂质。对于分类,它通常是基尼系数

    杂质或信息增益/熵,对于回归树,它是方差。因此,当训练树时,可以通过每个特征减少树中的加权杂质的程度来计算它。对于森林,可以对每个特征的杂质减少进行平均,并且根据该度量对特征进行排序。

    让我们看看如何使用随机森林分类器进行特征选择,并评估特征选择前后分类器的准确性。我们将使用Otto数据集。

    该数据集描述了超过61,000种产品的93个模糊细节,这些产品分为10个产品类别(例如,时装,电子产品等)。输入属性是某种不同事件的计数。

    目标是将新产品的预测作为10个类别中每个类别的概率数组,并使用多类对数损失(也称为交叉熵)来评估模型。

    我们将从导入所有库开始:

    #Import the supporting libraries
    
    #Import pandas to load the dataset from csv file
    
    from pandas import read_csv
    
    #Import numpy for array based operations and calculations
    
    import numpy as np
    
    #Import Random Forest classifier class from sklearn
    
    from sklearn.ensemble import RandomForestClassifier
    
    #Import feature selector class select model of sklearn
    
            from sklearn.feature_selection
    
            import SelectFromModel
    
             np.random.seed(1)

    让我们定义一种方法将数据集拆分为训练和测试数据; 我们将在训练部分训练我们的数据集,测试部分将用于评估训练模型:

    #Function to create Train and Test set from the original dataset def getTrainTestData(dataset,split):
    
    np.random.seed(0) training = [] testing = []
    
    np.random.shuffle(dataset) shape = np.shape(dataset)
    
    trainlength = np.uint16(np.floor(split*shape[0]))
    
    for i in range(trainlength): training.append(dataset[i])
    
    for i in range(trainlength,shape[0]): testing.append(dataset[i])
    
    training = np.array(training) testing = np.array(testing)
    
    return training,testing

    我们还需要添加一个函数来评估模型的准确性; 它将预测和实际输出作为输入来计算百分比准确度:

    #Function to evaluate model performance
    
    def getAccuracy(pre,ytest): count = 0
    
    for i in range(len(ytest)):
    
    if ytest[i]==pre[i]: count+=1
    
    acc = float(count)/len(ytest)
    
    return acc

    这是加载数据集的时间。我们将加载train.csv文件; 此文件包含超过61,000个训练实例。我们将在我们的示例中使用50000个实例,其中我们将使用35,000个实例来训练分类器,并使用15,000个实例来测试分类器的性能:

    #Load dataset as pandas data frame
    
    data = read_csv('train.csv')
    
    #Extract attribute names from the data frame
    
    feat = data.keys()
    
    feat_labels = feat.get_values()
    
    #Extract data values from the data frame
    
    dataset = data.values
    
    #Shuffle the dataset
    
    np.random.shuffle(dataset)
    
    #We will select 50000 instances to train the classifier
    
    inst = 50000
    
    #Extract 50000 instances from the dataset
    
    dataset = dataset[0:inst,:]
    
    #Create Training and Testing data for performance evaluation
    
    train,test = getTrainTestData(dataset, 0.7)
    
    #Split data into input and output variable with selected features
    
    Xtrain = train[:,0:94] ytrain = train[:,94] shape = np.shape(Xtrain)
    
    print("Shape of the dataset ",shape)
    
    #Print the size of Data in MBs
    
    print("Size of Data set before feature selection: %.2f MB"%(Xtrain.nbytes/1e6))

    我们在这里注意数据大小; 因为我们的数据集包含大约35000个具有94个属性的训练实例; 我们的数据集的大小非常大。让我们来看看:

    Shape of the dataset (35000, 94)
    
    Size of Data set before feature selection: 26.32 MB

    如您所见,我们的数据集中有35000行和94列,超过26 MB数据。

    在下一个代码块中,我们将配置随机林分类器; 我们将使用250棵树,最大深度为30,随机要素的数量为7.其他超参数将是sklearn的默认值:

    #Lets select the test data for model evaluation purpose
    
    Xtest = test[:,0:94] ytest = test[:,94]
    
    #Create a random forest classifier with the following Parameters
    
    trees            = 250
    
    max_feat     = 7
    
    max_depth = 30
    
    min_sample = 2
    
    clf = RandomForestClassifier(n_estimators=trees,
    
    max_features=max_feat,
    
    max_depth=max_depth,
    
    min_samples_split= min_sample, random_state=0,
    
    n_jobs=-1)
    
    #Train the classifier and calculate the training time
    
    import time
    
    start = time.time() clf.fit(Xtrain, ytrain) end = time.time()
    
    #Lets Note down the model training time
    
    print("Execution time for building the Tree is: %f"%(float(end)- float(start)))
    
    pre = clf.predict(Xtest)
    
    Let's see how much time is required to train the model on the training dataset:
    
    Execution time for building the Tree is: 2.913641
    
    #Evaluate the model performance for the test data
    
    acc = getAccuracy(pre, ytest)
    
    print("Accuracy of model before feature selection is %.2f"%(100*acc))

    我们模型的准确性是:

    特征选择前的模型精度为98.82

    正如您所看到的,我们正在获得非常好的准确性,因为我们将近99%的测试数据分类到正确的类别中。这意味着我们正在对15,000个正确类中的14,823个实例进行分类。

    那么,现在我的问题是:我们是否应该进一步改进?好吧,为什么不呢?如果可以的话,我们肯定会寻求更多的改进; 在这里,我们将使用功能重要性来选择功能。如您所知,在树木构建过程中,我们使用杂质测量来选择节点。选择具有最低杂质的属性值作为树中的节点。我们可以使用类似的标准进行特征选择。我们可以更加重视杂质较少的功能,这可以使用sklearn库的feature_importances_函数来完成。让我们找出每个功能的重要性:

    #Once我们培养的模型中,我们的排名将所有功能的功能拉链(feat_labels,clf.feature_importances_):

    print(feature)
    
    ('id', 0.33346650420175183)
    
    ('feat_1', 0.0036186958628801214)
    
    ('feat_2', 0.0037243050888530957)
    
    ('feat_3', 0.011579217472062748)
    
    ('feat_4', 0.010297382675187445)
    
    ('feat_5', 0.0010359139416194116)
    
    ('feat_6', 0.00038171336038056165)
    
    ('feat_7', 0.0024867672489765021)
    
    ('feat_8', 0.0096689721610546085)
    
    ('feat_9', 0.007906150362995093)
    
    ('feat_10', 0.0022342480802130366)

    正如您在此处所看到的,每个要素都基于其对最终预测的贡献而具有不同的重要性。

    我们将使用这些重要性分数来排列我们的功能; 在下面的部分中,我们将选择功能重要性大于0.01的模型训练功能:

    #Select features which have higher contribution in the final prediction
    
    sfm = SelectFromModel(clf, threshold=0.01) sfm.fit(Xtrain,ytrain)

    在这里,我们将根据所选的特征属性转换输入数据集。在下一个代码块中,我们将转换数据集。然后,我们将检查新数据集的大小和形状:

    #Transform input dataset
    
    Xtrain_1 = sfm.transform(Xtrain) Xtest_1      = sfm.transform(Xtest)
    
    #Let's see the size and shape of new dataset print("Size of Data set before feature selection: %.2f MB"%(Xtrain_1.nbytes/1e6))
    
    shape = np.shape(Xtrain_1)
    
    print("Shape of the dataset ",shape)
    
    Size of Data set before feature selection: 5.60 MB Shape of the dataset (35000, 20)

    你看到数据集的形状了吗?在功能选择过程之后,我们只剩下20个功能,这将数据库的大小从26 MB减少到5.60 MB。这比原始数据集减少了约80%

    在下一个代码块中,我们将训练一个新的随机森林分类器,它具有与之前相同的超参数,并在测试数据集上进行测试。让我们看看修改训练集后得到的准确度:

    #Model training time
    
    start = time.time() clf.fit(Xtrain_1, ytrain) end = time.time()
    
    print("Execution time for building the Tree is: %f"%(float(end)- float(start)))
    
    #Let's evaluate the model on test data
    
    pre = clf.predict(Xtest_1) count = 0
    
    acc2 = getAccuracy(pre, ytest)
    
    print("Accuracy after feature selection %.2f"%(100*acc2))
    
    Execution time for building the Tree is: 1.711518 Accuracy after feature selection 99.97

    你能看到!! 我们使用修改后的数据集获得了99.97%的准确率,这意味着我们在正确的类中对14,996个实例进行了分类,而之前我们只正确地对14,823个实例进行了分类。

    这是我们在功能选择过程中取得的巨大进步; 我们可以总结下表中的所有结果:

    评估标准在选择特征之前选择功能后
    功能数量9420
    数据集的大小26.32 MB5.60 MB
    训练时间2.91秒1.71秒
    准确性98.82%99.97%

    上表显示了特征选择的实际优点。您可以看到我们显着减少了要素数量,从而降低了数据集的模型复杂性和维度。尺寸减小后我们的训练时间缩短,最后,我们克服了过度拟合问题,获得了比以前更高的精度。

    以上就是Python中实现机器学习功能的四种方法介绍的详细内容,更多请关注码农之家其它相关文章!

    上一篇:区块链2.0实战:以太坊+Solidity编程从入门到精通

    下一篇:自己动手写分布式搜索引擎

    展开 +

    收起 -

     
    机器学习 相关内容
    机器学习从认知到实践 第2辑
    机器学习从认知到实践 第2辑 全书完整版

    包含Python机器学习实践指南、TensorFlow机器学习项目实战、TensorFlow技术解析与实战共三套,本书适合Python程序员、数据分析人员、对算法感兴趣的读者

    立即下载
    机器学习之路:Caffe、Keras、scikit-learn实战
    机器学习之路:Caffe、Keras、scikit-learn实战 全书超清版 立即下载
    机器学习:Python实践
    机器学习:Python实践 原书完整版

    本书系统地讲解了机器学习的基本知识,以实践为导向,使用 scikit-learn 作为编程框架,强调简单、快速地建立模型,并利用机器学习解决实际问题

    立即下载
    Python机器学习
    Python机器学习 中文影印版

    Python机器学习中文版(Sebastian Raschka著),一共13章,含机器学习算法、模型评估、集成学习、web应用、神经网络等,想要学习机器语言的可以下载学习

    立即下载
    百面机器学习:算法工程师带你去面试
    百面机器学习:算法工程师带你去面试 影印版

    人工智能领域正在以超乎人们想象的速度发展,本书赶在人工智能彻底占领世界之前完成编写,实属万幸。 书中收录了超过100道机器学习算法工程师的面试题目和解答,其中大部分源于Hulu算法

    立即下载
    机器学习与优化
    机器学习与优化 高质量版

    本书是机器学习实战领域的一本佳作,从机器学习的基本概念讲起,旨在将初学者引入机器学习的大门,并走上实践的道路。

    立即下载
    机器学习实战:基于Scikit-Learn和TensorFlow
    机器学习实战:基于Scikit-Learn和TensorFlow 扫描版

    本书作者曾经是谷歌工程师,在2013年至2016年主导了YouTube的视频分类工程,拥有丰富的机器学习项目经验。本书从开发者的实践角度,在动手写代码的过程中,循序渐进地了解机器学习的理论知

    立即下载
    机器学习导论
    机器学习导论 高清版

    《机器学习导论》 对机器学习的定义和应用实例进行了介绍,涵盖了监督学习。贝叶斯决策理论。参数方法、多元方法、维度归约、聚类、非参数方法、决策树。线性判别式、多层感知器,局

    立即下载
    学习笔记
    网友NO.774308

    Javascript实现的机器学习类库的原理

    机器学习(Machine Learning)在最近几年绝对称的上是大火,越来越多的公司和资本投入了巨大资源和金钱到这个新上位的技术新宠中,尤其是随着更多的各种机器学习相关类库的出现和发展,更多新的技术已经被应用到了机器学习中, 现在大家可以看到, Python不再是唯一个老牌机器学习的必用语言, 对于现代神经网络(neural networks)语言不再是一个问题, 你基本可以使用任何的编程语言, 包括今天我们介绍的标准前端开发语言 - Javascript Web的整个体系已经在近几年中有了长足的发展, 虽然 Javascript 和 node.js的使用案例还远远无法和Java/Python来媲美。 但是 也足够应用到很多机器学习的环境中去啦。而且最大的优势在于 - 一个浏览器就可以帮你搞定了一切 ! 虽然, 基于Javascript的机器学习类库还非常的早期,很多依旧在开发状态下, 但是他们的确已经可以提供比较早期的体验。 在今天这篇文章中, 我们将选择几款超酷的机器学习和AI相关的web应用, 让大家初体验一下 ~~ Brain brain是一个允许你快速简单创建神经网络并且基于输入/输出进行训练的类库。虽然一个CDN浏览器版本可以直接将类库加载到web页面中, 因为这个训练过程占用了大量的资源, 所以将这个类库运行在了一格Node.js环境下 。 这个类库包含了一个非常迷你的……

    网友NO.817212

    基于Python和Scikit-Learn的机器学习探索

    你好,%用户名%! 我叫Alex,我在机器学习和网络图分析(主要是理论)有所涉猎。我同时在为一家俄罗斯移动运营商开发大数据产品。这是我第一次在网上写文章,不喜勿喷。 现在,很多人想开发高效的算法以及参加机器学习的竞赛。所以他们过来问我:”该如何开始?”。一段时间以前,我在一个俄罗斯联邦政府的下属机构中领导了媒体和社交网络大数据分析工具的开发。我仍然有一些我团队使用过的文档,我乐意与你们分享。前提是读者已经有很好的数学和机器学习方面的知识(我的团队主要由MIPT(莫斯科物理与技术大学)和数据分析学院的毕业生构成)。 这篇文章是对数据科学的简介,这门学科最近太火了。机器学习的竞赛也越来越多(如,Kaggle, TudedIT),而且他们的资金通常很可观。 R和Python是提供给数据科学家的最常用的两种工具。每一个工具都有其优缺点,但Python最近在各个方面都有所胜出(仅为鄙人愚见,虽然我两者都用)。这一切的发生是因为Scikit-Learn库的腾空出世,它包含有完善的文档和丰富的机器学习算法。 请注意,我们将主要在这篇文章中探讨机器学习算法。通常用Pandas包去进行主数据分析会比较好,而且这很容易你自己完成。所以,让我们集中精力在实现上。为了确定性,我们假设有一个特……

    网友NO.246660

    Python机器学习logistic回归代码解析

    本文主要研究的是Python机器学习logistic回归的相关内容,同时介绍了一些机器学习中的概念,具体如下。 Logistic回归的主要目的 :寻找一个非线性函数sigmod最佳的拟合参数 拟合、插值和逼近是数值分析的三大工具 回归: 对一直公式的位置参数进行估计 拟合 :把平面上的一些系列点,用一条光滑曲线连接起来 logistic主要思想: 根据现有数据对分类边界线建立回归公式、以此进行分类 sigmoid函数: 在神经网络中它是所谓的激励函数。当输入大于0时,输出趋向于1,输入小于0时,输出趋向0,输入为0时,输出为0.5 梯度上升 :要找到某个函数的最大值,最好的方法是沿着该函数的梯度方向探寻 收敛: 随着迭代的运行算法的结果和真实结果的误差越来越小,且趋向于一个固定值。 爬山算法: 是完完全全的贪心算法,每次鼠目寸光的选择一个当前最优解,英雌只能搜寻到局部最优值 模拟退火算法: 也是一种贪心算法但它的sou索过程引入了随机因素,模拟退火算法以一定的概念来接受一个比当前解要差的解,因此有可能会跳出这个局部最优解,达到全局最优解。 处理数据中的缺失值: 使用可用特征的均值来填补缺失值 使用特殊值来填补缺失值,如-1 忽略有缺失值的样本 使用相似样本的均值添补缺失值 使用其它机器学习算法……

    电子书 编程教程 文档 软件 源码 视频

    Copyright 2018-2020 xz577.com 码农之家

    本站所有电子书资源不再提供下载地址,只分享来路

    免责声明:网站所有作品均由会员网上搜集共同更新,仅供读者预览及学习交流使用,下载后请24小时内删除

    版权投诉 / 书籍推广 / 赞助:QQ:520161757