当前位置:首页 > 信息安全 >
《Hadoop安全:大数据平台隐私保护》电子书封面

Hadoop安全:大数据平台隐私保护

  • 发布时间:2020年04月28日 09:24:18
  • 作者:本·斯派维 乔伊·爱彻利维亚
  • 大小:3.22 MB
  • 类别:Hadoop电子书
  • 格式:PDF
  • 版本:扫描中文版
  • 评分:9.4

    Hadoop安全:大数据平台隐私保护 PDF 扫描中文版

      给大家带来的一篇关于Hadoop相关的电子书资源,介绍了关于Hadoop安全、大数据平台、隐私保护方面的内容,本书是由人民邮电出版社出版,格式为PDF,资源大小3.22 MB,本·斯派维 乔伊·爱彻利维亚编写,目前豆瓣、亚马逊、当当、京东等电子书综合评分为:8.1。

      内容介绍

      伴随着应用Hadoop储存并解决很多数据信息的公司持续增加,Hadoop安全系数日渐突显,尤其是在金融业和诊疗等涉及到比较敏感信息内容的制造行业。这书俩位创作者均来源于Hadoop安全防护一线,书里详尽阐述了身份验证、数据加密、密钥管理等众多关键主题,并得出了实际解决提议和经典案例,读者能够从这当中掌握构建和应用Hadoop的系统架构师是怎样安全工作互联网大数据的。-掌握分布式服务,尤其是Hadoop所遭遇的安全性挑戰-学习培训怎样尽量保证Hadoop群集硬件配置的安全系数-Kerberos网络认证协议书概述-身份验证、受权和财务审计标准在Hadoop中的运用-静态和动态数据的数据加密-手机客户端浏览和数据信息获取全过程的安全性防护措施

      Hadoop安全大数据平台隐私保护》论述了Hadoop从初期对外开放的消費网络时代到现在做为隐秘数据可靠服务平台的演化过程,详细介绍了包含身份验证、数据加密、密钥管理和商业服务实践活动以内的众多主题,并在具体自然环境下多方面探讨。第1章是介绍性內容,接着分成四大一部分:*一部分是安全性构架,第二一部分是认证、受权和网络安全审计,第三一部分是网络信息安全,第四一部分是归纳总结。*后详细介绍了好多个应用实例,结合了书里众多定义。《Hadoop安全大数据平台隐私保护》合适对Hadoop很感兴趣的读者,有大数据平台维护要求的读者。

      目录

      • 序 xi
      • 前言 xii
      • 第1 章 引言 1
      • 1.1 安全概览 1
      • 1.1.1 机密性 2
      • 1.1.2 完整性 2
      • 1.1.3 可用性 2
      • 1.1.4 验证、授权和审计 3
      • 1.2 Hadoop 安全:简史 5
      • 1.3 Hadoop 组件和生态系统 5
      • 1.3.1 Apache HDFS 6
      • 1.3.2 Apache YARN 7
      • 1.3.3 Apache MapReduce 8
      • 1.3.4 Apache Hive 9
      • 1.3.5 Cloudera Impala 9
      • 1.3.6 Apache Sentry 10
      • 1.3.7 Apache HBase 11
      • 1.3.8 Apache Accumulo 11
      • 1.3.9 Apache Solr.13
      • 1.3.10 Apache Oozie 13
      • 1.3.11 Apache ZooKeeper 13
      • 1.3.12 Apache Flume .13
      • 1.3.13 Apache Sqoop .14
      • vi | 目录
      • 1.3.14 Cloudera Hue 14
      • 1.4 小结 .14
      • 第一部分 安全架构
      • 第2 章 保护分布式系统 .16
      • 2.1 威胁种类 17
      • 2.1.1 非授权访问/伪装 17
      • 2.1.2 内在威胁 .17
      • 2.1.3 拒绝服务 .18
      • 2.1.4 数据威胁 .18
      • 2.2 威胁和风险评估 18
      • 2.2.1 用户评估 .19
      • 2.2.2 环境评估 .19
      • 2.3 漏洞 .19
      • 2.4 深度防御 20
      • 2.5 小结 .21
      • 第3 章 系统架构 22
      • 3.1 运行环境 22
      • 3.2 网络安全 23
      • 3.2.1 网络划分 .23
      • 3.2.2 网络防火墙 24
      • 3.2.3 入侵检测和防御 .25
      • 3.3 Hadoop 角色和隔离策略 27
      • 3.3.1 主节点 28
      • 3.3.2 工作节点 .29
      • 3.3.3 管理节点 .29
      • 3.3.4 边界节点 .30
      • 3.4 操作系统安全 31
      • 3.4.1 远程访问控制 31
      • 3.4.2 主机防火墙 31
      • 3.4.3 SELinux 33
      • 3.5 小结 .34
      • 第4 章 Kerberos 35
      • 4.1 为什么是Kerberos .35
      • 4.2 Kerberos 概览 36
      • 4.3 Kerberos 工作流:一个简单示例 .37
      • 目录 | vii
      • 4.4 Kerberos 信任 38
      • 4.5 MIT Kerberos .39
      • 4.5.1 服务端配置 41
      • 4.5.2 客户端配置 44
      • 4.6 小结 .46
      • 第二部分 验证、授权和审计
      • 第5 章 身份和验证 .48
      • 5.1 身份 .48
      • 5.1.1 将Kerberos 主体映射为用户名 .49
      • 5.1.2 Hadoop 用户到组的映射 50
      • 5.1.3 Hadoop 用户配置 54
      • 5.2 身份验证 54
      • 5.2.1 Kerberos 55
      • 5.2.2 用户名和密码验证 56
      • 5.2.3 令牌 56
      • 5.2.4 用户模拟 .59
      • 5.2.5 配置 60
      • 5.3 小结 .70
      • 第6 章 授权 71
      • 6.1 HDFS 授权 71
      • HDFS 扩展ACL .72
      • 6.2 服务级授权 .74
      • 6.3 MapReduce 和YARN 的授权 .85
      • 6.3.1 MapReduce(MR1) 86
      • 6.3.2 YARN (MR2)  87
      • 6.6 HBase 和Accumulo 的授权 95
      • 6.6.1 系统、命名空间和表级授权 95
      • 6.6.2 列级别和单元级别授权 .99
      • 6.7 小结 .99
      • 第7 章 Apache Sentry(孵化中) 100
      • 7.1 Sentry 概念 100
      • 7.2 Sentry 服务 102
      • 7.3 Hive 授权 105
      • 7.4 Impala 授权 110
      • 7.5 Solr 授权 112
      • viii | 目录
      • 7.6 Sentry 特权模型 113
      • 7.6.1 SQL 特权模型 114
      • 7.6.2 Solr 特权模型 .116
      • 7.7 Sentry 策略管理 118
      • 7.7.1 SQL 命令 118
      • 7.7.2 SQL 策略文件 121
      • 7.7.3 Solr 策略文件 .123
      • 7.7.4 策略文件的验证和校验 124
      • 7.7.5 从策略文件迁移 126
      • 7.8 小结 127
      • 第8 章 审计 .128
      • 8.1 HDFS 审计日志 .129
      • 8.2 MapReduce 审计日志 .130
      • 8.3 YARN 审计日志132
      • 8.4 Hive 审计日志 134
      • 8.5 Cloudera Impala 审计日志 134
      • 8.6 HBase 审计日志 135
      • 8.7 Accumulo 审计日志 137
      • 8.8 Sentry 审计日志 139
      • 8.9 日志聚合 140
      • 8.10 小结 141
      • 第三部分 数据安全
      • 第9 章 数据保护 .144
      • 9.1 加密算法 144
      • 9.2 静态数据加密 .145
      • 9.2.1 加密和密钥管理 146
      • 9.2.2 HDFS 静态数据加密 .146
      • 9.2.3 MapReduce2 中间数据加密 151
      • 9.2.4 Impala 磁盘溢出加密 152
      • 9.2.5 全盘加密 152
      • 9.2.6 文件系统加密 154
      • 9.2.7 Hadoop 中重要数据的安全考虑 .155
      • 9.3 动态数据加密 .156
      • 9.3.1 传输层安全 .156
      • 9.3.2 Hadoop 动态数据加密 157
      • 目录 | ix
      • 9.4 数据销毁和删除 162
      • 9.5 小结 163
      • 第10 章 数据导入安全 .164
      • 10.1 导入数据的完整性 165
      • 10.2 数据导入的机密性 166
      • 10.2.1 Flume 加密 167
      • 10.2.2 Sqoop 加密 173
      • 10.3 导入工作流 178
      • 10.4 企业架构 .179
      • 10.5 小结 180
      • 第11 章 数据提取和客户端访问安全 181
      • 11.1 Hadoop 命令行接口 .182
      • 11.2 保护应用安全 183
      • 11.3 HBase 184
      • 11.3.1 HBase shell 184
      • 11.3.2 HBase REST 网关 186
      • 11.3.3 HBase Thrift 网关 189
      • 11.4 Accumulo 190
      • 11.4.1 Accumulo shell 190
      • 11.4.2 Accumulo 代理服务 192
      • 11.5 Oozie .192
      • 11.6 Sqoop .194
      • 11.7 SQL 访问 195
      • 11.7.1 Impala .195
      • 11.7.2 Hive .200
      • 11.8 WebHDFS/HttpFS  208
      • 11.9 小结 209
      • 第12 章 Cloudera Hue .210
      • 12.1 Hue HTTPS 211
      • 12.2 Hue 身份验证 212
      • 12.2.1 SPNEGO 后端 212
      • 12.2.2 SAML 后端 .213
      • 12.2.3 LDAP 后端 .215
      • 12.3 Hue 授权 .218
      • 12.4 Hue SSL 客户端配置 219
      • 12.5 小结 219
      • x | 目录
      • 第四部分 综合应用
      • 第13 章 案例分析 .222
      • 13.1 案例分析:Hadoop 数据仓库 222
      • 13.1.1 环境搭建 223
      • 13.1.2 用户体验 226
      • 13.1.3 小结 .229
      • 13.2 案例分析:交互式HBase Web 应用 .230
      • 13.2.1 设计与架构 .230
      • 13.2.2 安全需求 231
      • 13.2.3 集群配置 232
      • 13.2.4 实现中的注意事项 .236
      • 13.2.5 小结 .237
      • 后记 .238
      • 关于作者 .240
      • 关于封面 .240

      学习笔记

      Hadoop Combiner使用方法详解

      Hadoop Combiner使用方法详解 Combiner函数是一个可选的中间函数,发生在Map阶段,Mapper执行完成后立即执行。使用Combiner有如下两个优势: Combiner可以用来减少发送到Reducer的数据量,从而提高网络效率。 Combiner可以用于减少发送到Reducer的数据量,这将提高Reduce端的效率,因为每个reduce函数将处理相对较少记录,相比于未使用Combiner之前。 Combiner与Reducer结构相同,因为Combiner和Reducer都对Mapper的输出进行处理。这给了我们一个复用Reducer作为Combiner的好机会。但问题是,复用Reducer作为Combiner总是是一个好主意吗? 特点: Combiners是MapReduce中的一个优化,允许在shuffle和排序阶段之前在本地进行聚合。Combiners的首要……

      Hadoop MultipleOutputs输出到多个文件中的实现方法

      Hadoop MultipleOutputs输出到多个文件中的实现方法 1.输出到多个文件或多个文件夹: 驱动中不需要额外改变,只需要在MapClass或Reduce类中加入如下代码 private MultipleOutputsText,IntWritable mos;public void setup(Context context) throws IOException,InterruptedException { mos = new MultipleOutputs(context);}public void cleanup(Context context) throws IOException,InterruptedException { mos.close();} 然后就可以用mos.write(Key key,Value value,String baseOutputPath)代替context.write(key, value); 在MapClass或Reduce中使用,输出时也会有默认的文件part-m-00*或part-r-00*,不过这些文件是无内容的,大小为0. 而且只有part-m-00*会传给Reduce。 注意:multipleOutputs.write(key, value, baseOutputPath)方法的第三个……

      Hadoop 中 HBase Shell命令的详解

      Hadoop 中 HBase Shell命令的详解 HBase包含可以与HBase进行通信的Shell。 HBase使用Hadoop文件系统来存储数据。所有这些任务发生在HDFS。下面给出的是一些由 常用的HBase Shell命令。 数据操纵语言 命令 说明 命令表达式 create 创建一个表 create '表名称', '列名称1','列名称2','列名称N' put 添加记录 put '表名称', '行名称', '列名称:', '值' get 查看记录 get '表名称', '行名称' count 查看表中的记录总数 count '表名称' delete 删除记录 delete '表名' ,'行名称' , '列名称' scan 查看所有数据 scan "表名称" scan 查看表某列数据 scan "表名称" , ['列名称:'] 数据定义语言 list 列出HBase的所有表 disable 禁用表 disable '表名称' is_disabled 验证表是否被……

      VMware虚拟机下hadoop1.x的安装方法

      这是Hadoop学习全程记录第1篇,在这篇里我将介绍一下如何在Linux下安装Hadoop1.x。 先说明一下我的开发环境: 虚拟机:VMware8.0; 操作系统:CentOS6.4; 版本:jdk1.8;hadoop1.2.1 ①下载hadoop1.2.1,网盘:链接: https://pan.baidu.com/s/1sl5DMIp 密码: 5p67 下载jdk1.8,网盘:链接: https://pan.baidu.com/s/1boN1gh5 密码: t36h 将 jdk-8u144-linux-x64.tar.gz 解压至 /home/wyt/jdk8 文件夹下,将 hadoop-1.2.1.tar.gz 解压至 /home/wyt/hadoop 文件夹下。 ②配置jdk及hadoop环境变量:修改/etc/profile文件 vim /etc/profile//输入I,进入编辑模式 export JAVA_HOME=/home/wyt/jdk8export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/libexport HADOOP_HOME=/home/wyt/hadoopexport PATH=$PATH:$HADOOP_HOME/bin:$JAVA_HOME/bin //按……

      基于Hadoop实现Knn算法

      Knn算法的核心思想是如果一个样本在特征空间中的K个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。Knn方法在类别决策时,只与极少量的相邻样本有关。由于Knn方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,Knn方法较其他方法更为合适。 Knn算法流程如下: 1. 计算当前测试数据与训练数据中的每条数据的距离 2. 圈定距离最近的K个训练对象,作为测试对象的近邻 3. 计算这……

      以上就是本次介绍的Hadoop电子书的全部相关内容,希望我们整理的资源能够帮助到大家,感谢大家对码农之家的支持。

      上一篇:深入浅出ExtJS

      下一篇:深度学习轻松学:核心算法与视觉实践

      展开 +

      收起 -

      • 《Hadoop安全:大数据平台隐私保护》PDF下载

      Hadoop相关电子书
      数据算法:Hadoop/Spark大数据处理技巧
      数据算法:Hadoop/Spark大数据处理技巧 高清版

      数据算法:Hadoop/Spark大数据处理技巧 介绍了很多基本设计模式、优化技术和数据挖掘及机器学习解决方案,以解决生物信息学、基因组学、统计和社交网络分析等领域的很多问题。这本书还概

      立即下载
      精通Hadoop
      精通Hadoop 高清版

      精通Hadoop 是一本循序渐进的指导手册,重点介绍了Hadoop的高级概念和特性。内容涵盖了Hadoop 2.X版的改进,MapReduce、Pig和Hive等的优化及其高级特性,Hadoop 2.0的专属特性(如YARN和HDFS联合),以

      立即下载
      Hadoop云计算一体机实践指南
      Hadoop云计算一体机实践指南 完整版 立即下载
      Spark与Hadoop大数据分析
      Spark与Hadoop大数据分析 超清影印版

      这本书系统讲解了利用Hadoop和Spark及其生态系统里的一系列工具进行大数据分析的方法,配套详细的实现示例,是快速掌握大数据分析基础架构及其实施方法的详实参考

      立即下载
      Hadoop+Spark生态系统操作与实战指南
      Hadoop+Spark生态系统操作与实战指南 原书影印版

      本书帮助读者快速上手Hadoop+Spark,全面解析Hadoop和Spark生态系统,通过实际操作,快速学习Hadoop+Spark大数据技术,使得读者了解当今互联网应用极为广泛的集群技术

      立即下载
      Hadoop生态系统
      Hadoop生态系统 中文超清版

      本书每一章都介绍了不同的主题(例如核心技术或数据传输),并且解释了为什么特定组件适用或不适用特定的需求。对于数据处理来说,使用Hadoop是一个全新的挑战,但如果有了这本便利的参考书,你将很容易领会使用Hadoop的精妙所在

      立即下载
      Hadoop硬实战
      Hadoop硬实战 高清版

      Hadoop 是一个开源的MapReduce 平台,设计运行在大型分布式集群环境中,为开发者进行数据存储、管理以及分析提供便利的方法。《Hadoop硬实战》详细讲解了Hadoop 和MapReduce 的基本概念,并收集了

      立即下载
      Hadoop 2.X HDFS源码剖析
      Hadoop 2.X HDFS源码剖析 高清版

      《Hadoop 2.X HDFS源码剖析》 以Hadoop 2.6.0源码为基础,深入剖析了HDFS 2.X中各个模块的实现细节,包括RPC框架实现、Namenode实现、Datanode实现以及HDFS客户端实现等。《Hadoop 2.X HDFS源码剖析》一共有

      立即下载
      Elasticsearch集成Hadoop最佳实践
      Elasticsearch集成Hadoop最佳实践 中文高清版

      ElasticSearch是一个开源的分布式搜索引擎,具有高可靠性,支持非常多的企业级搜索用例。本书全面介绍Elasticsearch Hadoop技术用于大数据分析以及数据可视化的方法,感兴趣的小伙伴们可以参考一下

      立即下载
      Hadoop云计算实战
      Hadoop云计算实战 高清版

      《Hadoop云计算实战》全面介绍了云计算的基本概念、Google(谷歌)云计算的关键技术,以及Hadoop云计算的相关配套项目及其实战,包括Hadoop的HDFS、MapReduce、HBase、Hive、Pig、Cassandra、Chukwa及Zoo

      立即下载
      读者留言
      丁涛PhD

      丁涛PhD 提供上传

      资源
      38
      粉丝
      40
      喜欢
      94
      评论
      12

      Copyright 2018-2020 xz577.com 码农之家

      本站所有电子书资源不再提供下载地址,只分享来路

      版权投诉 / 书籍推广 / 赞助:QQ:520161757