当前位置:主页 > 数据库 > 大数据 pdf电子书下载
高质量反馈 / 投诉

Hadoop&Spark大数据开发实战 PDF 高质量版

2020-05-11 09:24:09 类别:大数据

  • 更新:2020-05-11 09:24:09
  • 大小:175 MB
  • 出版:水利水电出版社
  • 作者:肖睿、雷刚跃
  • 类别:大数据
  • 格式:PDF

网盘下载 本地下载

扫二维码手机浏览

资源介绍

给大家整理一篇大数据相关的 PDF电子书资料,由水利水电出版社出版,作者是肖睿、雷刚跃,介绍了关于Hadoop、Spark、大数据开发方面,格式为PDF,资源大小175 MB,目前在大数据类资源综合评分为:9.9分。

大数据我们一起以一种史无前例的方法,根据对海量信息开展剖析,得到有极大使用价值的商品和服务项目,*终产生转型之力。这书紧紧围绕Hadoop和Spark这两个流行技术性开展解读,具体内容包含Hadoop自然环境配备、分布式存储HDFS、分布式计算架构MapReduce、資源调度架构YARN与Hadoop新特性、大数据数据库管理Hive、线下解决輔助系统软件、SparkCore、SparkSQL、SparkStreaming等专业知识。

为确保*学习效率,这书紧密联系具体运用,利用很多实例表明和实践活动,提炼出认可度十足的开发设计工作经验。这书应用Hadoop和Spark开展大数据开发设计,并配上健全的教学资源和适用服务项目,包含教程视频、实例素材网、交流学习小区、qq讨论组等终生学习內容,为开发人员产生多方位的学习培训感受

以上就是本次关于书籍资源的介绍和部分内容,我们还整理了以往更新的其它相关电子书资源内容,可以在下方直接下载,关于相关的资源我们在下方做了关联展示,需要的朋友们也可以参考下。


下载地址

下载地址:网盘下载

学习心得

24小时16分钟前回答

hadoop的wordcount实例用法分析

可以通过一个简单的例子来说明MapReduce到底是什么: 我们要统计一个大文件中的各个单词出现的次数。由于文件太大。我们把这个文件切分成如果小文件,然后安排多个人去统计。这个过程就是Map。然后把每个人统计的数字合并起来,这个就是Reduce。 上面的例子如果在MapReduce去做呢,就需要创建一个任务job,由job把文件切分成若干独立的数据块,并分布在不同的机器节点中。然……

12小时22分钟前回答

在Hadoop集群环境中为MySQL安装配置Sqoop的教程

Sqoop是一个用来将Hadoop和关系型数据库中的数据相互转移的工具,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。 Sqoop中一大亮点就是可以通过hadoop的mapreduce把数据从关系型数据库中导入数据到HDFS。 一、安装sqoop 1、下载sqoop压缩包,并解压 压缩包分别是:sqoop-1.2.0-CDH3B4.tar.gz,hadoop-0.20.2-CDH3B4.ta……

18小时58分钟前回答

Hadoop组件简介

安装hbase 首先下载hbase的最新稳定版本 http://www.apache.org/dyn/closer.cgi/hbase/ 安装到本地目录中,我安装的是当前用户的hadoop/hbase中 tar -zxvf hbase-0.90.4.tar.gz 单机模式 修改配置文件 conf/hbase_env.sh 配置JDK的路径 修改conf/hbase-site.xml hbase.rootdir file:///home/${user.name}/hbase-tmp 完成后启动 bin/start-hbase.sh 启动后 starting master, logging to/home/lgstar888/hadoop/hbase0.9/bin/../logs/hbase-lgstar888-master-ubuntu.out 然后执……

19小时13分钟前回答

Eclipse+Maven构建Hadoop项目的方法步骤

Maven 翻译为”专家”、”内行”,是 Apache 下的一个纯 Java 开发的开源项目。基于项目对象模型(Project Object Model 缩写:POM)概念,Maven利用一个中央信息片断能管理一个项目的构建、报告和文档等步骤。Maven 是一个项目管理工具,可以对 Java 项目进行构建、依赖管理。 在开发一些大型项目的时候,需要用到各种各样的开源包jar,为了方便管理及加载jar,使用maven开发项目可以节省大……

19小时19分钟前回答

hadoop上传文件功能实例代码

hdfs上的文件是手动执行命令从本地linux上传至hdfs的。在真实的运行环境中,我们不可能每次手动执行命令上传的,这样太过繁琐。那么,我们可以使用hdfs提供的Javaapi实现文件上传至hdfs,或者直接从ftp上传至hdfs。 然而,需要说明一点,之前笔者是要运行MR,都需要每次手动执行yarn jar,在实际的环境中也不可能每次手动执行。像我们公司是使用了索答的调度平台/任务监控平台,……

欢迎发表评论:

联系我们

邮件联系:3522365@qq.com

QQ联系:3522365