海量语义数据处理:平台、技术与应用 PDF 超清版

  • 更新时间:
  • 4066人关注
  • 点击下载

给大家带来的一篇关于数据处理相关的电子书资源,介绍了关于数据处理、数据处理技术、数据处理应用方面的内容,本书是由高等教育出版社出版,格式为PDF,资源大小37.55MB,黄智生, 钟宁编写,目前豆瓣、亚马逊、当当、京东等电子书综合评分为:7.1分

海量语义数据处理:平台、技术与应用

作者:黄智生,钟宁 编著

出版时间:2012年版

语义万维网所面临的一个重大问题,就是如何处理海量语义数据,它一直被认为是制约语义技术发展的瓶颈。《海量语义数据处理:平台、技术与应用》系统地介绍了海量语义数据处理的最新技术和进展,通过介绍LarKC项目所开发的海量语义处理平台及其应用,来阐述海量语义数据处理技术的基本原理、实现方法和应用开发等一系列关键问题。《海量语义数据处理:平台、技术与应用》由黄智生、钟宁著,全书共13章,分为上、下篇。上篇为技术篇,内容包括海量语义数据处理基本原理、海量语义数据处理平台体系结构、识别与选择技术、抽象与学习技术、推理与决策技术及LarKC平台应用开发技术等。下篇为应用篇,内容涉及LarKC平台开发的一系列应用系统,包括关联生命数据集、基于语义技术的医学文献检索、语义技术在生命科学中的应用、语义技术与城市计算以及语义技术在智能交通中的应用等。《海量语义数据处理:平台、技术与应用》不仅是一本介绍海量语义数据处理LarKC平台及其技术与应用的参考书,同时对语义数据处理技术问题的研究人员、语义数据处理平台实现的技术人员以及语义技术的应用开发人员均具有一定的参考价值。

目录

  • 第1章 导论
  • 1.1 语义技术概述
  • 1.2 海量语义数据处理
  • 1.3 LarKC概述
  • 1.3.1.LarKC项目
  • 1.3.2 LarKC技术概述
  • 1.3.3 LarKC海量语义数据处理平台概述
  • 1.3.4 LarKC应用技术开发概述
  • 1.4 本章小结
  • 参考文献
  • 第一部分 技术篇
  • 第2章 LarKC海量语义数据处理平台
  • 2.1 LarKC体系结构
  • 2.2 LarKC平台的安装与使用
  • 2.2.1 获取LarKC
  • 2.2.2 运行LarKC
  • 2.2.3 一个简单工作流实例
  • 2.3 工作流设计器
  • 2.3.1 工作流设计器概览
  • 2.3.2 安装及主要操作
  • 2.4 LarKC插件概述
  • 2.5 用户支持和版权信息
  • 2.6 本章小结
  • 参考文献
  • 第3章 识别与选择
  • 3.1 识别方法与识别插件
  • 3.2 基于兴趣的选择方法与插件实现
  • 3.2.1 基本原理与基本算法
  • 3.2.2 方法的可扩展性与效率比较
  • 3.2.3 基于兴趣的选择插件设计与实现
  • 3.3 随机索引选择方法与插件实现
  • 3.3.1 语义索引
  • 3.3.2 基于随机索引与Lcene索引的检索比较
  • 3.4 选择方法与选择插件的应用
  • 3.4.1 基于兴趣的选择插件应用示例
  • 3.4.2 随机索引选择插件应用示例
  • 3.5 本章小结
  • 附录 第3.3.2 节相关询问
  • 参考文献
  • 第4章 抽象与转换
  • 4.1 机器学习
  • 4.1.1 SUNS
  • 4.1.2 机器学习插件
  • 4.2 数据流
  • 4.2.1 C-SPARQL
  • 4.2.2 数据流插件
  • 4.3 归纳与演绎结合的数据流推理
  • 4.3.1 动机
  • 4.3.2 数据流推理的结构框架
  • 4.4 本章小结
  • 参考文献
  • 第5章 推理与决策
  • 5.1 LarKC推理与决策插件
  • 5.2 常规语义推理
  • 5.2.1 OWLAPI推理机
  • 5.2.2 SPARQLDL推理机
  • 5.3 并行与分布式推理
  • 5.3.1 采用MapReduce技术的海量分布性推理
  • 5.3.2 采用WebPIE进行OWL分布性推理
  • 5.4 基于规则的推理
  • 5.5 本章小结
  • 参考文献
  • 第6章 非常规语义推理
  • 6.1 不一致本体的推理
  • 6.1.1 语义网与不一致性
  • 6.1.2 基本方法
  • 6.1.3 LarKC平台下的PION系统
  • 6.2 转折推理
  • 6.2.1 基本定义
  • 6.2.2 计算方法和实现
  • 6.2.3 转折推理插件
  • 6.3 嘈杂语义数据的推理
  • 6.3.1 基本定义
  • 6.3.2 韩国首尔RSM系统示例
  • 6.4 本章小结
  • 参考文献
  • 第7章 LarKC系统与应用开发
  • 7.1 LarKC工作流开发
  • 7.1.1 工作流图
  • 7.1.2 工作流描述
  • 7.1.3 更复杂的一个示例
  • 7.2 LarKC插件开发
  • 7.2.1 LarKCMaven原型的使用
  • 7.2.2 插件代码编写
  • 7.2.3 整合插件到LarKC平台
  • 7.3 相关的开发工具
  • 7.3.1 集成开发环境Eclipse
  • 7.3.2 项目管理Maven
  • 7.3.3 单元测试JUnit
  • 7.3.4 版本控制SVN
  • 7.4 本章小结
  • 附录 复杂的工作流描述示例
  • 参考文献
  • 第二部分 应用篇
  • 第8章 关联生命数据集
  • 8.1 概况
  • 8.2 关联生命数据组成
  • 8.3 语义关联构造
  • 8.4 关联生命数据集的使用
  • 8.4.1 关联生命数据集关键词查询
  • 8.4.2 关联生命数据集SPARQL语义查询
  • 8.5 本章小结
  • 参考文献
  • 第9章 生物医学文献语义检索
  • 9.1 需求分析
  • 9.2 通过LLD进行医学文献检索
  • 9.3 医学文献语义标注
  • 9.4 LarKC医学文献语义检索插件
  • 9.5 本章小结
  • 参考文献
  • 第10章 海量语义数据处理与基因研究
  • 10.1 概述
  • 10.2 基因研究与语义数据
  • 10.3 LarKC海量语义数据处理平台用于GWAS研究
  • 10.3.1 LarKC的GWAS插件
  • 10.3.2 关键词扩展推理器
  • 10.3.3 GWAS识别器
  • 10.3.4 GWAS工作流
  • 10.4 本章小结
  • 参考文献
  • 第11章 城市计算Ⅰ:交通与社交媒体
  • 11.1 交通路线规划
  • 11.1.1 框架结构
  • 11.1.2 交通预测
  • 11.1.3 语义交通路线规划
  • 11.1.4 评价
  • 11.1.5 小结
  • 11.2 社交媒体分析
  • 11.2.1 概况
  • 11.2.2 框架结构
  • 11.2.3 BOTTARI的LarKC工作流
  • 11.3 本章小结
  • 参考文献
  • 第12章 城市计算Ⅱ:路标管理
  • 12.1 基本思想
  • 12.2 RSM数据集与数据整合
  • 12.2.1 RSM数据集
  • 12.2.2 数据整合
  • 12.2.3 路标的有效性审核
  • 12.3 RSM语义数据处理
  • 12.3.1 系统结构
  • 12.3.2.RSM工作流
  • 12.3.3 :RSM查询与推理
  • 12.4 RSM系统用户界面
  • 12.5 本章小结
  • 参考文献
  • 第13章 海量语义数据处理技术展望
  • 13.1 市场分析
  • 13.1.1 语义技术的市场观察和潜力
  • 13.1.2 市场分析的结论
  • 13.2 LarKC海量语义数据平台应用展望
  • 13.2.1 药物研发海量语义数据处理
  • 13.2.2 语义技术用于政治文化分析
  • 13.2.3 智能交通系统
  • 13.2.4 基于语义技术的电子病历
  • 13.3 海量语义数据处理研究展望
  • 13.4 结束语
  • 参考文献
展开阅读
精选笔记:mysql中blob数据处理方式

10小时18分钟前回答

具体代码如下所示:

package epoint.mppdb_01.h3c;
import java.io.File;
import java.io.FileInputStream;
import java.io.FileOutputStream;
import java.io.InputStream;
import java.io.OutputStream;
import java.net.URI;
import java.sql.Blob;
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.Statement;
import org.apache.commons.net.ftp.FTPClient;
import org.apache.commons.net.ftp.FTPReply;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
public class MySQLblobToMPPphoto {
  // MySQL连接
  public static Connection getMySQLConnection() throws Exception {
    String MySQLDRIVER = "com.mysql.jdbc.Driver";
    String MySQLURL = "jdbc:mysql://192.168.186.13:3306/bigdata_scene03_rktj";
    String MySQLUSERNAME = "root";
    String MySQLPASSWORD = "Gepoint";
    Connection MySQLconn = DriverManager.getConnection(MySQLURL, MySQLUSERNAME, MySQLPASSWORD);
    return MySQLconn;
  }
  // MPP连接
  public static Connection getMPPConnection() throws Exception {
    String MPPDRIVER = "com.MPP.jdbc.Driver";
    String MPPURL = "jdbc:MPP://192.168.186.14:5258/bigdata_scene03_rktj";
    String MPPUSERNAME = "mpp";
    String MPPPASSWORD = "h3c";
    Connection MPPconn = DriverManager.getConnection(MPPURL, MPPUSERNAME, MPPPASSWORD);
    return MPPconn;
  }
  //
  public static void getMySQLblobToHDFS() throws Exception {
    Connection conn = getMySQLConnection();
    ResultSet rs = null;
    try {
      String sql = "select ROW_ID,photo from t_rk_baseinfo_blob limit 10";
      Statement prest = conn.prepareStatement(sql);
      rs = prest.executeQuery(sql);
      while (rs.next()) {
        int row_id = rs.getInt(1);
        Blob photo = rs.getBlob(2);
        System.out.println(row_id + " " + photo);
        InputStream in = photo.getBinaryStream();
        OutputStream out = new FileOutputStream("H:/photo/" + row_id + ".jpg");
        int len = 0;
        byte[] buffer = new byte[1024];
        while ((len = in.read(buffer)) != -1) {
          out.write(buffer, 0, len);
        }
        upload("H:/photo/" + row_id + ".jpg");
      }
      prest.close();
      rs.close();
    } catch (Exception e) {
      e.printStackTrace();
    } finally {
      // 关闭连接
      if (conn != null) {
        try {
          conn.close();
          conn = null;
        } catch (Exception e) {
          e.printStackTrace();
        }
      }
    }
  }
  public static void main(String[] args) throws Exception {
    getMySQLblobToHDFS();
  }
  // HDFS附件上传
  public static void upload(String uploadpath) throws Exception {
    Configuration conf = new Configuration();
    URI uri = new URI("hdfs://192.168.186.14:8020");
    FileSystem fs = FileSystem.get(uri, conf, "HDFS");
    Path resP = new Path(uploadpath);
    Path destP = new Path("/photo");
    if (!fs.exists(destP)) {
      fs.mkdirs(destP);
    }
    fs.copyFromLocalFile(resP, destP);
    fs.close();
    System.out.println("***********************");
    System.out.println("上传成功!");
  }
  // HDFS附件下载
  public static void download() throws Exception {
    Configuration conf = new Configuration();
    String dest = "hdfs://192.168.186.14:/photo/11.png";
    String local = "D://11.png";
    FileSystem fs = FileSystem.get(URI.create(dest), conf, "hdfs");
    FSDataInputStream fsdi = fs.open(new Path(dest));
    OutputStream output = new FileOutputStream(local);
    IOUtils.copyBytes(fsdi, output, 4096, true);
    System.out.println("***********************");
    System.out.println("下载成功!");
  }
}

总结

以上所述是小编给大家介绍的mysql中blob数据处理方式,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对码农之家网站的支持!

展开阅读

资源下载

相关资源

  • Spark大数据处理: 原理、算法与实例

    Spark大数据处理: 原理、算法与实例

    Spark大数据处理: 原理、算法与实例 以时下流行的Hadoop所存在的缺陷为出发点,深入浅出地介绍了下一代大数据处理核心技术Spark的优势和必要性,并以简洁的指引步骤展示了如何在10分钟内建

    大小:148.7 MBSpark

    立即下载
  • Spark大数据处理:技术、应用与性能优化

    Spark大数据处理:技术、应用与性能优化

    Spark大数据处理:技术、应用与性能优化 作者:高彦杰 著 出版时间:2014年版 丛编项:大数据技术丛书 作为一个基于内存计算的大数据并行计算框架,Spark不仅很好地解决了数据的实时处理问题,而且保证了高容错性和高可伸缩性。具体来讲,它有如下优势:打造全栈多计算范式的高效数据流水线轻量级快速处理易于使用,支持多语言与HDFS等存储层兼容社区活跃度高……Spark已经在全球范围内广泛使用,无论是Intel、Yahoo!、Twitter、阿里巴巴、百度、腾

    大小:38.32MBSpark

    立即下载
  • 深度学习之美:AI时代的数据处理与最佳实践

    深度学习之美:AI时代的数据处理与最佳实践

    零入门 | 高可读| 重实战 | 抓前沿!准受用的深度学习入门教程,集各项前沿技术之大成,含Hinton神经胶囊网络的详细解读!

    大小:88.68 MB深度学习

    立即下载
  • 物联网大数据处理技术与实践

    物联网大数据处理技术与实践

    大小:18.5MB物联网

    立即下载
  • 海量点云数据处理理论与技术

    海量点云数据处理理论与技术

    海量点云数据处理理论与技术 作者:程效军,贾东峰,程小龙 主编 出版时间:2014年版 程效军、贾东峰、程小龙编著的《海量点云数据处理理论与技术》共分8章。第1章绪论,简要介绍海量点云处理技术的基础理论、方法以及主要内容。第2章介绍海量点云数据的预处理,包括点云数据的获取方案,点云的去噪、压缩、配准方法,以及点云空洞的插值方法。第3章介绍海量点云数据的重建方法,系统介绍常用的点云重建算法与特点,并详细介绍基于特征和

    大小:41.94MB云数据

    立即下载
  • Excel 2010 高效办公:公式、函数与数据处理

    Excel 2010 高效办公:公式、函数与数据处理

    大小:48 MBExcel

    立即下载
  • 深入解析SAS:数据处理、分析优化与商业应用

    深入解析SAS:数据处理、分析优化与商业应用

    本书是国内市场目前唯一一本由SAS公司在中国的员工创作、全面系统地剖析SAS技术的著作。作者团队结合自身实际工作的经验体会和大量生动的实践案例,通俗易懂、循序渐进地对SAS的核心技

    大小:83.6 MBSAS

    立即下载

学习笔记

5小时36分钟前回答

解决vue中使用Axios调用接口时出现的ie数据处理问题

1.问题 近期在使用vue2 + axios 调用接口时碰到一个IE中很奇葩的问题,让我头痛了很久。 废话不多扯,就是在其他浏览器中调用接口返回数据然后可以很顺利的进行处理,但在IE(9-11)中发现发送请求是成功的而且也能抓到服务端返回来的数据。却发现在处理返回来的数据的时候处理的有点问题,怎么搞就是不行。 2.处理过程及方法 我使用了console大法去解决这个问题,具体是这样的:我先将服务器返回过来的数据打印到浏览器控制台,结果发现都能打印出来,这个时候就郁闷了,明明有数据为何在IE上还是不行呢,于是我用typeOf 来查看返回数据的类型发现axios在IE时处理的返回数据居然是string类型。这……

16小时44分钟前回答

struts2数据处理_动力节点Java学院整理

Struts2框架框架使用OGNL语言和值栈技术实现数据的流转处理。值栈就相当于一个容器,用来存放数据,而OGNL是一种快速查询数据的语言。 值栈:ValueStack一种数据结构,操作数据的方式为:先进后出 OGNL : Object-GraphNavigation Language(对象图形导航语言)将多个对象的关系使用一种树形的结构展现出来,更像一个图形,那么如果需要对树形结构的节点数据进行操作,那么可以使用 对象.属性 的方式进行操作,OGNL技术底层采用反射实现。 一:数据的提交方式 ,form表单提交form action="/user/login_Login.action" method="post" 用户代码:inputnameinputname="usercode" type="text" br 用户密码:inputnameinputname="userpswd" type="password"br inputty……