标签分类
当前位置:首页 > 程序设计电子书 > 大数据电子书网盘下载
数据算法:Hadoop/Spark大数据处理技巧 数据算法:Hadoop/Spark大数据处理技巧
小样Yao

小样Yao 提供上传

资源
47
粉丝
27
喜欢
183
评论
7

    数据算法:Hadoop/Spark大数据处理技巧 PDF 高清版

    大数据电子书
    • 发布时间:

    给大家带来的一篇关于大数据相关的电子书资源,介绍了关于数据算法、Hadoop、Spark、大数据处理方面的内容,本书是由机械工业出版社出版,格式为PDF,资源大小34.1 MB,饶琛琳编写,目前豆瓣、亚马逊、当当、京东等电子书综合评分为:8.4,更多相关的学习资源可以参阅 程序设计电子书、等栏目。

  • 数据算法:Hadoop/Spark大数据处理技巧 PDF 下载
  • 下载地址:https://pan.baidu.com/s/1VL-sYGARSoWh4FDCI09UXg
  • 分享码:y3h8
  • 数据算法:Hadoop/Spark大数据处理技巧 PDF

    数据算法:Hadoop/Spark大数据处理技巧介绍了很多基本设计模式、优化技术和数据挖掘及机器学习解决方案,以解决生物信息学、基因组学、统计和社交网络分析等领域的很多问题。这本书还概要介绍了MapReduce、Hadoop和Spark。

    本书主要内容包括:
    ■ 完成超大量交易的购物篮分析。
    ■ 数据挖掘算法(K-均值、KNN和朴素贝叶斯)。
    ■ 使用超大基因组数据完成DNA和RNA测序。
    ■ 朴素贝叶斯定理和马尔可夫链实现数据和市场预测。
    ■ 推荐算法和成对文档相似性。
    ■ 线性回归、Cox回归和皮尔逊(Pearson)相关分析。

    目录

    • 第1章二次排序:简介 19
    • 第2章二次排序:详细示例 42
    • 第3章 Top 10 列表 54
    • 第4章左外连接 96
    • 第5章反转排序 127
    • 第6章移动平均 137
    • 第7章购物篮分析 155
    • 第8章共同好友 182
    • 第9章使用MapReduce实现推荐引擎 201
    • 第10章基于内容的电影推荐 225
    • 第11章使用马尔可夫模型的智能邮件营销 .253
    • 第12章 K-均值聚类 282
    • 第13章 k-近邻 296
    • 第14章朴素贝叶斯 315
    • 第15章情感分析 349
    • 第16章查找、统计和列出大图中的所有三角形 354
    • 第17章 K-mer计数 375
    • 第18章 DNA测序 390
    • 第19章 Cox回归 413
    • 第20章 Cochran-Armitage趋势检验 426
    • 第21章等位基因频率 443
    • 第22章 T检验 468
    • 第23章皮尔逊相关系数 488
    • 第24章 DNA碱基计数 520
    • 第25章 RNA测序 543
    • 第26章基因聚合 553
    • 第27章线性回归 586
    • 第28章 MapReduce和幺半群 600
    • 第29章小文件问题 622
    • 第30章 MapReduce的大容量缓存 635
    • 第31章 Bloom过滤器 651Bloom

    上一篇:Python编程  下一篇:ELK stack权威指南

    展开 +

    收起 -

    码小辫二维码
     ←点击下载即可登录

    大数据相关电子书
    学习笔记
    网友NO.979922

    Hadoop的安装与环境搭建教程图解

    一、 Hadoop 的安装 1. 下载地址:https://archive.apache.org/dist/hadoop/common/我下载的是hadoop-2.7.3.tar.gz版本。 2. 在/usr/local/ 创建文件夹zookeeper mkdir hadoop 3.上传文件到Linux上的/usr/local/source目录下 3.解压缩 运行如下命令: tar -zxvf hadoop-2.7.3.tar.gz-C /usr/local/hadoop 4. 修改配置文件 进入到 cd /usr/local/hadoop/hadoop-2.7.3/etc/hadoop/ , 修改 hadoop-env.sh 运行 vimhadoop-env.sh ,修改JAVA_HOME 5.将Hadoop的执行命令加入到我们的环境变量里 在/etc/profile文件中加入: export PATH=$PATH:/usr/local/hadoop/hadoop-2.7.3/bin:/usr/local/hadoop/hadoop-2.7.3/sbin 执行/etc/profile文件: source /etc/profile 6. 将npfdev1机器上的hadoop复制到npfdev2和npfdev3和npfdev4机器上。使用下面的命令: 首先分别在npfdev2和npfdev3和npfdev4机器上,建立/usr/local/hadoop目录,然后在npfdev1上分别执行下面命令: scp -r /usr/local/hadoop/hadoop-2.7.3/ npfdev2:/usr/local/hadoop/ scp -r /usr/local/hadoop/hadoop-2.7.3/ npfdev3:/usr/local/hadoop/ scp -r /usr/local/hadoop/hadoop-2.7.3/ npfdev4:/usr/local/hadoop/ 记住:需要各自修改npfdev2和npfdev3和npfdev4的/etc/profile文件: 在/etc/profile文件中加入: export PATH=$PATH:/usr/local/hadoop/hadoop-2.7.3/bin:/usr/local/hadoop/hadoop-2.7.3/sbin 执行/etc/profile文件: source /etc/profile 然后分别在npfdev1和npfdev2和npfdev3和npfdev4机器上,执行hadoop命令,看是否安装成功。并且关闭……

    网友NO.932489

    Hadoop2.8.1完全分布式环境搭建过程

    前言 本文搭建了一个由三节点(master、slave1、slave2)构成的Hadoop完全分布式集群(区别单节点伪分布式集群),并通过Hadoop分布式计算的一个示例测试集群的正确性。 本文集群三个节点基于三台虚拟机进行搭建,节点安装的操作系统为Centos7(yum源),Hadoop版本选取为2.8.0。作者也是初次搭建Hadoop集群,其间遇到了很多问题,故希望通过该博客让读者避免。 实验过程 1、基础集群的搭建 目的:获得一个可以互相通信的三节点集群 下载并安装VMware WorkStation Pro(支持快照,方便对集群进行保存)下载地址,产品激活序列号网上自行查找。 下载CentOS7镜像,下载地址。 使用VMware安装master节点(稍后其他两个节点可以通过复制master节点的虚拟机文件创建)。 三个节点存储均为30G默认安装,master节点内存大小为2GB,双核,slave节点内存大小1GB,单核 2、集群网络配置 目的:为了使得集群既能互相之间进行通信,又能够进行外网通信,需要为节点添加两张网卡(可以在虚拟机启动的时候另外添加一张网卡,即网络适配器,也可以在节点创建之后,在VMware设置中添加)。 两张网卡上网方式均采用桥接模式,外网IP设置为自动获取(通过此网卡进行外网访问,配置应该按照你当前主机的上网方式进行合理配置,如果不与主机通信的话可……

    网友NO.167785

    在Hadoop集群环境中为MySQL安装配置Sqoop的教程

    Sqoop是一个用来将Hadoop和关系型数据库中的数据相互转移的工具,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。 Sqoop中一大亮点就是可以通过hadoop的mapreduce把数据从关系型数据库中导入数据到HDFS。 一、安装sqoop 1、下载sqoop压缩包,并解压 压缩包分别是:sqoop-1.2.0-CDH3B4.tar.gz,hadoop-0.20.2-CDH3B4.tar.gz, Mysql JDBC驱动包mysql-connector-java-5.1.10-bin.jar [root@node1 ~]# ll drwxr-xr-x 15 root root 4096 Feb 22 2011 hadoop-0.20.2-CDH3B4-rw-r--r-- 1 root root 724225 Sep 15 06:46 mysql-connector-java-5.1.10-bin.jardrwxr-xr-x 11 root root 4096 Feb 22 2011 sqoop-1.2.0-CDH3B4 2、将sqoop-1.2.0-CDH3B4拷贝到/home/hadoop目录下,并将Mysql JDBC驱动包和hadoop-0.20.2-CDH3B4下的hadoop-core-0.20.2-CDH3B4.jar至sqoop-1.2.0-CDH3B4/lib下,最后修改一下属主。 [root@node1 ~]# cp mysql-connector-java-5.1.10-bin.jar sqoop-1.2.0-CDH3B4/lib[root@node1 ~]# cp hadoop-0.20.2-CDH3B4/hadoop-core-0.20.2-CDH3B4.jar sqoop-1.2.0-CDH3B4/lib[root@node1 ~]# chown -R hadoop:hadoop sqoop-1.2.0-CDH3B4[root@node1 ~]# mv sqoop-1.2.0-CDH3B4 /home/hadoop[root@node1 ~]# ll /home/hadoop total 35748-rw-rw-r-- 1 hadoop hadoop 343 Sep 15 05:13 derby.logdrwxr-xr-x 13 hadoop hadoop 4096 Sep 14 16:16 hadoop-0.20.2drwxr-xr-x 9 hadoop hadoop 4096 Sep 14 20:21 hive-0.10.0-rw-r--r-- 1 hadoop hadoop 36524……

    Copyright 2018-2019 xz577.com 码农之家

    版权责任说明