当前位置:首页 > 计算机理论 >
《Spark核心技术与高级应用》电子书封面

Spark核心技术与高级应用

  • 发布时间:2019年11月15日 14:18:57
  • 作者:于俊 向海 代其锋 马海平
  • 大小:51.8 MB
  • 类别:Spark电子书
  • 格式:PDF
  • 版本:高清版
  • 评分:8.6

    Spark推荐

    Spark核心技术与高级应用 PDF 高清版

      给大家带来的一篇关于Spark相关的电子书资源,介绍了关于Spark、核心技术、高级应用方面的内容,本书是由未知机械工业出版社出版,格式为PDF,资源大小51.8 MB,于俊 向海 代其锋 马海平编写,目前豆瓣、亚马逊、当当、京东等电子书综合评分为:7.2分

      Tags:

      内容介绍

      Spark核心技术与高级应用 PDF

      Spark核心技术与高级应用是Spark领域少有的专注于核心原理与深度应用的著作,由科大讯飞和百分点科技的4位大数据专家撰写。不仅细致介绍了Spark的程序开发、编程模型、作业执行解析等基础知识,而且还深度讲解了Spark SQL、Spark ML、Spark Streaming等大量内部模块和周边模块的原理与使用。除此之外,还从管理和性能优化的角度对Spark进行了深入探索。

      本书分为四大部分,共计20章:
      基础篇(第1~10章),详细说明什么是Spark、Spark的重要扩展、Spark的部署和运行、Spark程序开发、Spark编程模型,以及Spark作业执行解析。通过阅读本篇,读者可以构建更加清晰的Spark基础知识体系,进一步加深对大数据核心技术的理解。
      实战篇(第11~14章),本书重点篇章,重点讲解Spark SQL与DataFrame、Spark Streaming、Spark MLlib与Spark ML、GraphX,以及基于以上内容在大数据分析、系统资源统计、LR模型、二级邻居关系图获取方面的实例。通过体察本篇的内容,读者可以掌握如何在实践中应用Spark,优化自身的应用场景,完善相应的解决方案。
      高级篇(第15~18章),深入讲解Spark调度管理、存储管理、监控管理、性能调优。本篇的内容,为合理利用资源、有效进行资源监控、保障运行环境的稳定、平台性能调优、推进企业级的大数据平台管理提供了参考依据。
      扩展篇(第19~20章),介绍Jobserver和Tachyon在Spark上的使用情况。通过本篇,延续基础、实战、高级等环节,并进一步扩展,更好地管理好Job、更有效地利用内存,为读者拓展出更深入、更全面的思路。

      为了让读者从更高的角度认识与应用大数据,从《道德经》和《庄子》各精选10句,引导大家以老庄哲学的思考方式来认识大数据的内涵。本书不只是一本技术书,更是一本大数据哲学的思考之作。

      目录

      • 第1章 Spark简介 2
      • 第2章 Spark部署和运行 11
      • 第3章 Spark程序开发 27
      • 第4章 编程模型 44
      • 第5章 作业执行解析 59
      • 第6章 Spark SQL与DataFrame 73
      • 第7章 深入了解Spark Streaming 97
      • 第8章 Spark MLlib与机器学习 116
      • 第9章 GraphX图计算框架与应用 148
      • 第10章 SparkR(R on Spark) 167
      • 第11章 大数据分析系统 188
      • 第12章 系统资源分析平台 200
      • 第13章 在Spark上训练LR模型 215
      • 第14章 获取二级邻居关系图 225
      • 第15章 调度管理 238
      • 第16章 存储管理 254
      • 第17章 监控管理 264
      • 第18章 性能调优 273
      • 第19章 Spark-jobserver实践 282
      • 第20章 Spark Tachyon实战 292

      以上就是本次介绍的Spark电子书的全部相关内容,希望我们整理的资源能够帮助到大家,感谢大家对码农之家的支持。

      上一篇:Python机器学习及实践:从零开始通往Kaggle竞赛之路

      下一篇:构建高性能Web站点

      展开 +

      收起 -

      下载地址:百度网盘下载
      Spark 相关电子书
      Spark大数据商业实战三部曲
      Spark大数据商业实战三部曲 PDF 超清扫描版

      本书基于Spark 2.2.X,以Spark商业案例实战和Spark在生产环境下几乎所有类型的性能调优为核心,循序渐进地全面解析了Spark 2.2,完全全面,欢迎下载

      立即下载
      Spark机器学习
      Spark机器学习 PDF 原书第2版

      spark机器学习入门与进阶实战 Spark项目管理委员会成员作品 注重技术实践 通过大量实例演示如何创建有用的机器学习系统

      立即下载
      PySpark实战指南
      PySpark实战指南 PDF 完整版

      本书是一本Pyspark的实用参考指南,深度挖掘Python+Spark的强大功能,介绍了如何使用Python调用Spark新特性、处理结构化及非结构化数据、使用PySpark中基本可用数据类型等内容

      立即下载
      大数据Spark企业级实战
      大数据Spark企业级实战 PDF 完整影印版

      Spark是现如今互联网大数据行业最活跃性、最受欢迎、最高效率的互联网大数据通用性测算服务平台,是Apache手机软件慈善基金会下全部开源网站项目中几大*开源网站项目之首。 在OneStacktoru

      立即下载
      Spark SQL入门与实践指南
      Spark SQL入门与实践指南 PDF 超清完整版 立即下载
      基于Hadoop与Spark的大数据开发实战
      基于Hadoop与Spark的大数据开发实战 PDF 原书影印版

      1、选取知识点核心实用,以互联网 实现终身学习 2、以企业需求为设计导向,以任务驱动为讲解方式 3、以案例为主线组织知识点,以实战项目来提升技术 4、充分考虑学习者的认知曲线,由浅入深,边讲边练

      立即下载
      Spark大数据处理技术
      Spark大数据处理技术 PDF 高清版

      《Spark大数据处理技术》 以Spark 0.9版本为基础进行编写,是一本全面介绍Spark及Spark生态圈相关技术的书籍,是国内首本深入介绍Spark原理和架构的技术书籍。主要内容有Spark基础功能介绍及内部

      立即下载
      深度实践Spark机器学习
      深度实践Spark机器学习 PDF 超清版

      本书系统讲解Spark机器学习技术、原理、算法和组件,以及构建Spark机器学习系统的方法、流程、标准和规范,介绍了Spark的深度学习框架TensorFlowOnSpark,以及如何借助它实现卷积神经网络和循环神经网络

      立即下载
      读者心得
      96小时3分钟前回答

      Spring Boot与Spark、Cassandra系统集成开发示例

      本文演示以Spark作为分析引擎,Cassandra作为数据存储,而使用Spring Boot来开发驱动程序的示例。 1.前置条件 安装Spark(本文使用Spark-1.5.1,如安装目录为/opt/spark) 安装Cassandra(3.0+) 创建keyspace CREATE KEYSPACE hfcb WITH REPLICATION = { 'class' : 'SimpleStrategy', 'replication_factor' : 3 }; 创建table CREATE TABLE person ( id text PRIMARY KEY, first_name text, last_name text); 插入测试数据 insert into person (id,first_name,last_name) values('1','wang','yunfei');insert into person (id,first_name,last_name) values('2','peng','chao');insert into person (id,first_name,last_name) values('3','li','jian');insert into person (id,first_name,last_name) values('4','zhang','jie');insert into person (id,first_name,last_name) values('5','liang','wei');……

      29小时41分钟前回答

      PyCharm搭建Spark开发环境的实现步骤

      1.安装好JDK 下载并安装好jdk-12.0.1_windows-x64_bin.exe,配置环境变量: 新建系统变量JAVA_HOME,值为Java安装路径 新建系统变量CLASSPATH,值为 .;%JAVA_HOME%\lib\dt.jar;%JAVA_HOME%\lib\tools.jar;(注意最前面的圆点) 配置系统变量PATH,添加 %JAVA_HOME%bin;%JAVA_HOME%jrebin 在CMD中输入:java或者java -version,不显示不是内部命令等,说明安装成功。 2.安装Hadoop,并配置环境变量 下载hadoop: https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz 解压hadoop-2.7.7.tar.gz特定路径,如:D:\adasoftware\hadoop 添加系统变量HADOOP_HOME:D:\adasoftware\hadoop 在系统变量PATH中添加:D:\adasoftware\hadoop\bin 安装组件winutils:将winutils中对应的hadoop版本中……

      126小时10分钟前回答

      初识Spark入门

      1. Spark简介 2009年,Spark诞生于伯克利大学的AMPLab实验室。最出Spark只是一个实验性的项目,代码量非常少,属于轻量级的框架。 2010年,伯克利大学正式开源了Spark项目。 2013年6月,Spark成为了Apache基金会下的项目,进入高速发展期。第三方开发者贡献了大量的代码,活跃度非常高 2014年2月,Spark以飞快的速度称为了Apache的顶级项目,同时大数据公司Cloudera宣称加大Spark框架的投入来取代MapReduce 2014年4月,大数据公司MapR投入Spark阵营, Apache Mahout放弃MapReduce,将使用Spark作为计算引擎。 2014年5月,Spark 1.0.0 发布。 2015年~,Spark在国内IT行业变得愈发火爆,越来越多的公司开始重点部署或者使用Spark来替代MR2、……

      138小时31分钟前回答

      Spark调度架构原理详解

      1.启动spark集群,就是执行sbin/start-all.sh,启动master和多个worker节点,master主要作为集群的管理和监控,worker节点主要担任运行各个application的任务。master节点需要让worker节点汇报自身状况,比如CPU,内存多大,这个过程都是通过心跳机制来完成的 2.master收到worker的汇报信息之后,会给予worker信息 3.driver提交任务给spark集群[driver和master之间的通信是通过AKKAactor来做的,也就是说master是akkaactor异步通信模型中的一个actor模型,driver也是一样,driver异步向mater发送注册信息(registerApplication)异步注册信息] 4.master节点对application预估,7个G的内存完成任务,对任务进行分配,每一个worker节点上都分配3.5G的内存去执行……

      码农之家

      麴欣悦 提供上传

      资源
      42
      粉丝
      5
      喜欢
      187
      评论
      2

      Copyright 2018-2021 www.xz577.com 码农之家

      版权投诉 / 书籍推广:520161757@qq.com