标签分类
当前位置:首页 > 程序设计电子书 > Hadoop电子书网盘下载
深入理解Hadoop 深入理解Hadoop
那轻快的步伐

那轻快的步伐 提供上传

资源
31
粉丝
9
喜欢
159
评论
18

    深入理解Hadoop PDF 扫描第2版

    Hadoop电子书
    • 发布时间:

    给大家带来的一篇关于Hadoop相关的电子书资源,介绍了关于Hadoop方面的内容,本书是由机械工业出版社出版,格式为PDF,资源大小68.2 MB,瓦德卡编写,目前豆瓣、亚马逊、当当、京东等电子书综合评分为:7.7,更多相关的学习资源可以参阅 程序设计电子书、等栏目。

  • 深入理解Hadoop PDF 下载
  • 下载地址:https://pan.baidu.com/s/1s9z0eO4nAhiIscxkOOZz9Q
  • 分享码:gbh9
  • 深入理解Hadoop PDF

    深入理解Hadoop(原书第2版)创作者应用场景对Hadoop系统软件的实践活动,从入门到精通地对Hadoop开展了详尽的解读,包括很多的案例和方法,可协助有必须基本的开发人员迅速把握分布式系统。

    这书主题思想包含:第1章~第4章解读大信息系统的基本要素、Hadoop系统软件的重要定义,及其开展Hadoop服务平台管理方法的重要定义因素。第5章~第7章是这书的重中之重,详细分析了MapReduce架构,不但包含MapReduce架构的API,还详细介绍MapReduce架构的更繁杂定义以及设计构思。第8章~第14章详细介绍Hadoop生态体系,包含适用MapReduce程序流程的单元测试和集成测试架构、Hadoop系统软件的监控器和系统日志系统软件、Hive架构、Pig和Crunch架构、HCatalog架构、Hadoop系统日志流解决、HBase等。第15章~第18章详细介绍了计算机科学基本要素及运用、云计算技术案例、分布式系统免费下载服务项目案例等。

    目录

    • 第1章为什么会有大数据
    • 第2章Hadoop中的概念
    • 第3章初识Hadoop框架
    • 第4章Hadoop系统管理
    • 第5章MapReduce开发基础
    • 第6章MapReduce开发进阶
    • 第7章 Hadoop输入/输出
    • 第8章 测试Hadoop程序
    • 第9章Hadoop的监控
    • 第10章使用Hadoop构建数据仓库
    • 第11章 使用Pig进行数据处理
    • 第12章 HCatalog和企业级Hadoop
    • 第13章 使用Hadoop分析日志
    • 第14章 使用HBase构建实时系统
    • 第15章 Hadoop与数据科学
    • 第16章 Hadoop与云计算
    • 第17章 构建YARN应用程序

    上一篇:Android系统源代码分析  下一篇:Chrome扩展及应用开发

    展开 +

    收起 -

    Hadoop相关电子书
    学习笔记
    网友NO.129470

    基于Hadoop实现Knn算法

    Knn算法的核心思想是如果一个样本在特征空间中的K个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。Knn方法在类别决策时,只与极少量的相邻样本有关。由于Knn方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,Knn方法较其他方法更为合适。 Knn算法流程如下: 1. 计算当前测试数据与训练数据中的每条数据的距离 2. 圈定距离最近的K个训练对象,作为测试对象的近邻 3. 计算这K个训练对象中出现最多的那个类别,并将这个类别作为当前测试数据的类别 以上流程是Knn的大致流程,按照这个流程实现的MR效率并不高,可以在这之上进行优化。在这里只写,跟着这个流程走的MR实现过程。 Mapper的设计: 由于测试数据相比于训练数据来说,会小很多,因此将测试数据用Java API读取,放到内存中。所以,在setup中需要对测试数据进行初始化。在map中,计算当前测试数据与每条训练数据的距离,Mapper的值类型为:Object, Text, IntWritable,MyWritable。map输出键类型为IntWritable,存放当前测试数据的下标,输出值类型为……

    网友NO.316403

    Hadoop2.8.1完全分布式环境搭建过程

    前言 本文搭建了一个由三节点(master、slave1、slave2)构成的Hadoop完全分布式集群(区别单节点伪分布式集群),并通过Hadoop分布式计算的一个示例测试集群的正确性。 本文集群三个节点基于三台虚拟机进行搭建,节点安装的操作系统为Centos7(yum源),Hadoop版本选取为2.8.0。作者也是初次搭建Hadoop集群,其间遇到了很多问题,故希望通过该博客让读者避免。 实验过程 1、基础集群的搭建 目的:获得一个可以互相通信的三节点集群 下载并安装VMware WorkStation Pro(支持快照,方便对集群进行保存)下载地址,产品激活序列号网上自行查找。 下载CentOS7镜像,下载地址。 使用VMware安装master节点(稍后其他两个节点可以通过复制master节点的虚拟机文件创建)。 三个节点存储均为30G默认安装,master节点内存大小为2GB,双核,slave节点内存大小1GB,单核 2、集群网络配置 目的:为了使得集群既能互相之间进行通信,又能够进行外网通信,需要为节点添加两张网卡(可以在虚拟机启动的时候另外添加一张网卡,即网络适配器,也可以在节点创建之后,在VMware设置中添加)。 两张网卡上网方式均采用桥接模式,外网IP设置为自动获取(通过此网卡进行外网访问,配置应该按照你当前主机的上网方式进行合理配置,如果不与主机通信的话可……

    网友NO.104449

    Hadoop的安装与环境搭建教程图解

    一、 Hadoop 的安装 1. 下载地址:https://archive.apache.org/dist/hadoop/common/我下载的是hadoop-2.7.3.tar.gz版本。 2. 在/usr/local/ 创建文件夹zookeeper mkdir hadoop 3.上传文件到Linux上的/usr/local/source目录下 3.解压缩 运行如下命令: tar -zxvf hadoop-2.7.3.tar.gz-C /usr/local/hadoop 4. 修改配置文件 进入到 cd /usr/local/hadoop/hadoop-2.7.3/etc/hadoop/ , 修改 hadoop-env.sh 运行 vimhadoop-env.sh ,修改JAVA_HOME 5.将Hadoop的执行命令加入到我们的环境变量里 在/etc/profile文件中加入: export PATH=$PATH:/usr/local/hadoop/hadoop-2.7.3/bin:/usr/local/hadoop/hadoop-2.7.3/sbin 执行/etc/profile文件: source /etc/profile 6. 将npfdev1机器上的hadoop复制到npfdev2和npfdev3和npfdev4机器上。使用下面的命令: 首先分别在npfdev2和npfdev3和npfdev4机器上,建立/usr/local/hadoop目录,然后在npfdev1上分别执行下面命令: scp -r /usr/local/hadoop/hadoop-2.7.3/ npfdev2:/usr/local/hadoop/ scp -r /usr/local/hadoop/hadoop-2.7.3/ npfdev3:/usr/local/hadoop/ scp -r /usr/local/hadoop/hadoop-2.7.3/ npfdev4:/usr/local/hadoop/ 记住:需要各自修改npfdev2和npfdev3和npfdev4的/etc/profile文件: 在/etc/profile文件中加入: export PATH=$PATH:/usr/local/hadoop/hadoop-2.7.3/bin:/usr/local/hadoop/hadoop-2.7.3/sbin 执行/etc/profile文件: source /etc/profile 然后分别在npfdev1和npfdev2和npfdev3和npfdev4机器上,执行hadoop命令,看是否安装成功。并且关闭……

    Copyright 2018-2019 xz577.com 码农之家

    版权责任说明