标签分类
当前位置:首页 > 数据库电子书 > 大数据电子书网盘下载
大数据算法 大数据算法
readboy2012

readboy2012 提供上传

资源
32
粉丝
15
喜欢
213
评论
7

    大数据算法 PDF 高清版

    大数据电子书
    • 发布时间:

    给大家带来的一篇关于大数据相关的电子书资源,介绍了关于大数据、算法方面的内容,本书是由机械工业出版社出版,格式为PDF,资源大小101.4 MB,王宏志编写,目前豆瓣、亚马逊、当当、京东等电子书综合评分为:8.5,更多相关的学习资源可以参阅 数据库电子书、等栏目。

  • 大数据算法 PDF 下载
  • 下载地址:https://pan.baidu.com/s/12Xpba5zd8zOhPOGQFRfORQ
  • 分享码:lmv5
  • 大数据算法 PDF

    大数据算法是国内系统介绍大数据算法设计与分析技术的教材,内容丰富,结构合理,旨在讲述和解决大数据处理和应用中相关算法设计与分析的理论和方法,切实培养读者设计、分析与应用算法解决大数据问题的能力。不仅适合计算机科学、软件工程、大数据、物联网等学科的本科生和研究生使用,而且可供其他相近学科的本科生和研究生使用。同时,该教材还可作为从事大数据相关领域工程技术人员的自学读物。

    本书特点:
    前沿、实用的内容。总结了大数据算法设计与分析的新技术和新理念,梳理了当前大数据相关应用中所需要的算法设计与分析的方法。书中的部分内容代表了学术界全新的前沿技术,首次出现在国内外的教科书上。
    清晰、严谨的叙述。针对大数据算法设计与分析中的主要方法,通过介绍原理、举例说明、算法分析等多个角度进行阐述,清晰地讲解算法设计方法,严谨地分析和证明算法的特性,有利于培养读者独立设计与分析大数据算法的能力。
    新颖、宽泛的习题。习题部分来自领域内相关文献,部分来自大数据相关开发领域的实际问题,有利于培养读者解决问题的创新思维。
     

    目录

    • 第1章绪论1
    • 第2章时间亚线性算法14
    • 第3章空间亚线性算法29
    • 第4章外存算法概述60
    • 第5章外存查找结构80
    • 第6章外存图数据算法109
    • 第7章MapReduce算法概述150
    • 第8章MapReduce算法例析171
    • 第9章超越MapReduce的并行大数据处理204
    • 第10章众包算法224

    上一篇:高性能HTML5  下一篇:Linux软件管理平台设计与实现

    展开 +

    收起 -

    码小辫二维码
     

    大数据相关电子书
    学习笔记
    网友NO.603805

    MySQL中大数据表增加字段的实现思路

    前言 增加字段相信大家应该都不陌生,随手就可以写出来,给 MySQL 一张表加字段执行如下 sql 就可以了: ALTER TABLE tbl_tpl ADD title(255) DEFAULT '' COMMENT '标题' AFTER id; 但是线上的一张表如果数据量很大呢,执行加字段操作就会锁表,这个过程可能需要很长时间甚至导致服务崩溃,那么这样操作就很有风险了。 那么,给 MySQL 大表加字段的思路如下: ① 创建一个临时的新表,首先复制旧表的结构(包含索引) create table new_table like old_table; ② 给新表加上新增的字段 ③ 把旧表的数据复制过来 insert into new_table(filed1,filed2…) select filed1,filed2,… from old_table ④ 删除旧表,重命名新表的名字为旧表的名字 不过这里需要注意,执行第三步的时候,可能这个过程也需要时间,这个时候有新的数据进来,所以原来的表如果有字段记录了数据的写入时间就最好了,可以找到执行这一步操作之后的数据,并重复导入到新表,直到数据差异很小。不过还是会可能损失极少量的数据。 所以,如果表的数据特别大,同时又要保证数据完整,最好停机操作。 另外的方法: 1.在从库进行加字段操作,然后主从切换 2.使用第三方在线改字段的工具 一般情况下,十几万的数据量,可以直接进行加字段操作。 总结 以上就是关于在MySQL大表中加字段的实现思路,……

    网友NO.962261

    Python如何处理大数据?3个技巧效率提升攻略(推荐)

    如果你有个5、6 G 大小的文件,想把文件内容读出来做一些处理然后存到另外的文件去,你会使用什么进行处理呢?不用在线等,给几个错误示范:有人用multiprocessing 处理,但是效率非常低。于是,有人用python处理大文件还是会存在效率上的问题。因为效率只是和预期的时间有关,不会报错,报错代表程序本身出现问题了~ 所以,为什么用python处理大文件总有效率问题? 如果工作需要,立刻处理一个大文件,你需要注意两点: 01、大型文件的读取效率 面对100w行的大型数据,经过测试各种文件读取方式,得出结论: with open(filename,"rb") as f: for fLine in f: pass 方式最快,100w行全遍历2.7秒。 基本满足中大型文件处理效率需求。如果rb改为r,慢6倍。但是此方式处理文件,fLine为bytes类型。但是python自行断行,仍旧能很好的以行为单位处理读取内容。 02、文本处理效率问题 这里举例ascii定长文件,因为这个也并不是分隔符文件,所以打算采用列表操作实现数据分割。但是问题是处理20w条数据,时间急剧上升到12s。本以为是byte.decode增加了时间。遂去除decode全程bytes处理。但是发现效率还是很差。 最后用最简单方式测试,首次运行,最简单方式也要7.5秒100w次。 想知道这个方式处理的完整代码是什么吗?扫描文末二维码,联系小编可以获……

    网友NO.219970

    Navicat中导入mysql大数据时出错解决方法

    Navicat 自己到处的数据,导入时出现无法导入的情况。 最后选择利用MySQL命令导入方式完成数据导入 用到命令 use 快捷方式 \u source 快捷方式 \. 快捷方式可以通过help查询 mysql\u dataname mysql\. d:\mysql\dataname.sql 导入时碰到问题及解决方法 导入时中文乱码 解决方法: 在用Navicat导出时用的是UTF8编码,导入时MySQL用自己默认的编码方式导入,中文产生了乱码 用命令查询 mysqlshow variables like '%char%'; 查询看到编码是gbk 然后查到的全部用 mysqlset character_set_results=utf8; mysqlset .....(类同都修改成utf8) 再次执行导入,OK!编码正常,成功导入。 ……

    网友NO.145318

    在大数据情况下MySQL的一种简单分页优化方法

    通常应用需要对表中的数据进行翻页,如果数据量很大,往往会带来性能上的问题: root@sns 07:16:25select count(*) from reply_0004 where thread_id = 5616385 and deleted = 0;+———-+| count(*) |+———-+| 1236795 |+———-+1 row in set (0.44 sec)root@sns 07:16:30select idfrom reply_0004 where thread_id = 5616385 and deleted = 0order by id asc limit 1236785, 10 ;+———–+| id |+———–+| 162436798 || 162438180 || 162440102 || 162442044 || 162479222 || 162479598 || 162514705 || 162832588 || 162863394 || 162899685 |+———–+10 rows in set (1.32 sec) 索引:threa_id+deleted+id(gmt_Create) 10 rows in set (1.32 sec) 这两条sql是为查询最后一页的翻页sql查询用的。由于一次翻页往往只需要查询较小的数据,如10条,但需要向后扫描大量的数据,也就是越往后的翻页查询,扫描的数据量会越多,查询的速度也就越来越慢。 由于查询的数据量大小是固定的,如果查询速度不受翻页的页数影响,或者影响最低,那么这样是最佳的效果了(查询最后最几页的速度和开始几页的速度一致)。 在翻页的时候,往往需要对其中的某个字段做排序(这个字段在索引中),升序排序。那么可不可以利用索引的有序性来解决上面遇到的问题喃,答案是肯定的。比如有10000条数据需要做分页,那么前5000条做asc排序,后5000条desc排序,在limit startnum,page……

    Copyright 2018-2019 xz577.com 码农之家

    版权责任说明