标签分类 热门分类
当前位置:首页 > 人工智能电子书 > 美团算法电子书网盘下载
美团机器学习实践 美团机器学习实践
水白

水白 提供上传

资源
14
粉丝
6
喜欢
418
评论
9

    美团机器学习实践 PDF 扫描版

    美团算法电子书
    • 发布时间:

    给大家带来的一篇关于美团算法相关的电子书资源,介绍了关于机器学习、人工智能方面的内容,本书是由人民邮电出版社出版,格式为PDF,资源大小178 MB,美团算法团队编写,目前豆瓣、亚马逊、当当、京东等电子书综合评分为:9.4,更多相关的学习资源可以参阅 人工智能电子书、等栏目。

  • 美团机器学习实践 PDF 下载
  • 下载地址:https://pan.baidu.com/s/1nWJKglfDZo8TLXHxVGAV5
  • 分享码:xux7
  • 美团机器学习实践

    美团机器学习实践

    内容介绍

    人工智能技术正以一种超快的速度深刻地改变着我们的生活,引导了第四次工业革命。美团作为国内O2O领域领 先的服务平台,结合自身的业务场景和数据,积极进行了人工智能领域的应用探索。在美团的搜索、推荐、计算广告、风控、图像处理等领域,相关的人工智能技术得到广泛的应用。本书包括通用流程、数据挖掘、搜索和推荐、计算广告、深度学习以及算法工程6大部分内容,全面介绍了美团在多个重要方面对机器学习的应用。
    本书非常适合有一定机器学习基础的工程技术人员和在校大学生学习和阅读。通过本书,有经验的算法工程师可以了解美团在这方面的做法,在校大学生可以学习机器学习算法如何在具体的业务场景中落地。

    目录

    • 第一部分 通用流程
    • 第1章 问题建模 2
    • 参考文献 17
    • 第2章 特征工程 18
    • 参考文献 33
    • 第3章 常用模型 35
    • 参考文献 44
    • 第4章 模型融合 45
    • 参考文献 57
    • 第二部分 数据挖掘
    • 第5章 用户画像 60
    • 参考文献 91
    • 第6章 POI实体链接 92
    • 第7章 评论挖掘 104
    • 参考文献 119
    • 第三部分 搜索和推荐
    • 第8章 O2O场景下的查询理解与 用户引导 122
    • 参考文献 150
    • 第9章 O2O场景下排序的特点 152
    • 第10章 推荐在O2O场景的应用 166
    • 参考文献 176
    • 第四部分 计算广告
    • 第11章 O2O场景下的广告营销 178
    • 参考文献 194
    • 第12章 用户偏好和损失建模 196
    • 参考文献 205
    • 第五部分 深度学习
    • 第13章 深度学习概述 208
    • 参考文献 219
    • 第14章 深度学习在文本领域的应用 220
    • 参考文献 237
    • 第15章 深度学习在计算机视觉中的 应用 238
    • 参考文献 264
    • 第六部分 算法工程
    • 第16章 大规模机器学习 268
    • 参考文献 289
    • 第17章 特征工程和实验平台 290

    上一篇:从零开始学Python数据分析与挖掘  下一篇:R数据科学

    展开 +

    收起 -

    美团算法 相关电子书
    关于美团算法的学习笔记
    网友NO.729183

    PHP机器学习库php-ml的简单测试和使用方法

    php-ml是一个使用PHP编写的机器学习库。虽然我们知道,python或者是C++提供了更多机器学习的库,但实际上,他们大多都略显复杂,配置起来让很多新手感到绝望。 php-ml这个机器学习库虽然没有特别高大上的算法,但其具有最基本的机器学习、分类等算法,我们的小公司做一些简单的数据分析、预测等等都是够用的。我们的项目中,追求的应该是性价比,而不是过分的效率和精度。一些算法和库看上去非常厉害,但如果我们考虑快速上线,而我们的技术人员没有机器学习方面的经验,那么复杂的代码和配置反而会拖累我们的项目。而如果我们本身就是做一个简单的机器学习应用,那么研究复杂库和算法的学习成本很显然高了点,而且,项目出了奇奇怪怪的问题,我们能解决吗?需求改变了怎么办?相信大家都有过这种经历:做着做着,程序忽然报错,自己怎么都搞不清楚原因,上谷歌或百度一搜,只搜出一条满足条件的问题,在五年、十年前提问,然后零回复。。。 所以,选择最简单最高效、性价比最高的做法是必须的。php-ml的速度不算慢(赶紧换php7吧),而且精度也不错,毕竟算法都一样,而且php是基于c的。博主最看不惯的就是,拿python和Java,PHP之间比性能,比适用范围。真要性能,请你拿C开发。真要追求适用范围……

    网友NO.448777

    Python机器学习降低静态日志噪声实例方法

    持续集成(CI)作业可以产生大量的数据。当作业失败时,找出了什么问题可能是一个繁琐的过程,需要对日志进行调查以发现根本原因-这通常是在作业总输出的一小部分中发现的。为了更容易地将最相关的数据从其他数据中分离出来,日志还原机器学习模型使用以前成功的作业运行来训练,以从失败的运行日志中提取异常。 此原则也可应用于其他用例,例如,从期刊或其他系统范围的常规日志文件。 利用机器学习降低噪声 一个典型的日志文件包含许多名义事件(基线)以及一些与开发人员相关的异常。基线可能包含难以检测和删除的随机元素,如时间戳或唯一标识符。要删除基线事件,我们可以使用k最近邻模式识别算法 (k-NN)。 的日志事件必须转换为数值。k-NN回归。使用通用特征提取工具HashingVectorizer允许将该进程应用于任何类型的日志。它对每个单词进行散列,并在稀疏矩阵中对每个事件进行编码。为了进一步减少搜索空间,令牌化将删除已知的随机单词,例如日期或IP地址。 一旦模型被训练,k-NN搜索告诉我们每个新事件与基线之间的距离。 Jupyter notebook演示了稀疏矩阵向量的过程,并绘制了稀疏矩阵向量图。 介绍LOGPREIN LogReallyPython软件透明地实现了这个过程。的最初目标是协助祖尔CI使用构建数据库进行作业失败分析……

    网友NO.344770

    Python机器学习之scikit-learn库中KNN算法的封装与使用方法

    本文实例讲述了Python机器学习之scikit-learn库中KNN算法的封装与使用方法。分享给大家供大家参考,具体如下: 1、工具准备,python环境,pycharm 2、在机器学习中,KNN是不需要训练过程的算法,也就是说,输入样例可以直接调用predict预测结果,训练数据集就是模型。当然这里必须将训练数据和训练标签进行拟合才能形成模型。 3、在pycharm中创建新的项目工程,并在项目下新建KNN.py文件。 import numpy as npfrom math import sqrtfrom collections import Counterclass KNNClassifier: def __init__(self,k): """初始化KNN分类器""" assert k = 1 """断言判断k的值是否合法""" self.k = k self._X_train = None self._y_train = None def fit(self,X_train,y_train): """根据训练数据集X_train和Y_train训练KNN分类器,形成模型""" assert X_train.shape[0] == y_train.shape[0] """数据和标签的大小必须一样 assert self.k = X_train.shape[0] """k的值不能超过数据的大小""" self._X_train = X_train self._y_train = y_train return self def predict(self,X_predict): """必须将训练数据集和标签拟合为模型才能进行预测的过程""" assert self._X_train is not None and self._y_train is not None """训练数据和标签不可以是空的""" assert X_predict.shape[1]== self._X_train.shape[1] """待预测数据和训练数据的列(特征个数)必须相同""" y_predict = [self._predict(x) for x in X_predict] return np.array(y_predict) ……

    网友NO.764702

    python实现机器学习多元线性回归总结

    总体思路与一元线性回归思想一样,现在将数据以矩阵形式进行运算,更加方便。 一元线性回归实现代码 下面是多元线性回归用Python实现的代码: import numpy as npdef linearRegression(data_X,data_Y,learningRate,loopNum): W = np.zeros(shape=[1, data_X.shape[1]]) # W的shape取决于特征个数,而x的行是样本个数,x的列是特征值个数 # 所需要的W的形式为 行=特征个数,列=1 这样的矩阵。但也可以用1行,再进行转置:W.T # X.shape[0]取X的行数,X.shape[1]取X的列数 b = 0 #梯度下降 for i in range(loopNum): W_derivative = np.zeros(shape=[1, data_X.shape[1]]) b_derivative, cost = 0, 0 WXPlusb = np.dot(data_X, W.T) + b # W.T:W的转置 W_derivative += np.dot((WXPlusb - data_Y).T, data_X) # np.dot:矩阵乘法 b_derivative += np.dot(np.ones(shape=[1, data_X.shape[0]]), WXPlusb - data_Y) cost += (WXPlusb - data_Y)*(WXPlusb - data_Y) W_derivative = W_derivative / data_X.shape[0] # data_X.shape[0]:data_X矩阵的行数,即样本个数 b_derivative = b_derivative / data_X.shape[0] W = W - learningRate*W_derivative b = b - learningRate*b_derivative cost = cost/(2*data_X.shape[0]) if i % 100 == 0: print(cost) print(W) print(b)if __name__== __main__: X = np.random.normal(0, 10, 100) noise = np.random.normal(0, 0.05, 20) W = np.array([[3, 5, 8, 2, 1]]) #设5个特征值 X = X.reshape(20, 5) #reshape成20行5列 noise = noise.reshape(20, 1) Y = np.dot(X, W.T)+6 + noise linearRegression……

    Copyright 2018-2020 xz577.com 码农之家

    电子书资源由网友、会员提供上传,本站记录提供者的基本信息及资源来路

    鸣谢: “ 码小辫 ” 公众号提供回调API服务、“ 脚本CDN ”提供网站加速(本站寻求更多赞助支持)

    版权投诉 / 书籍推广 / 赞助:520161757@qq.com

    上传资源(网友、会员均可提供)

    查看最新会员资料及资源信息