标签分类
当前位置:首页 > 数据库电子书 > 大数据电子书网盘下载
征信与大数据 征信与大数据
八道杠少年

八道杠少年 提供上传

资源
37
粉丝
47
喜欢
107
评论
5

    征信与大数据 PDF 完整影印版

    大数据电子书
    • 发布时间:

    给大家带来的一篇关于大数据相关的电子书资源,介绍了关于征信、大数据、移动互联、信用体系方面的内容,本书是由中信出版社出版,格式为PDF,资源大小86.8 MB,刘新海编写,目前豆瓣、亚马逊、当当、京东等电子书综合评分为:7.7,更多相关的学习资源可以参阅 数据库电子书、等栏目。

  • 征信与大数据 PDF 下载
  • 下载地址:https://pan.baidu.com/s/15neLV_jsLNHA9ghHCdIXVA
  • 分享码:zv49
  • 征信与大数据 PDF

    《征信与大数据:移动互联时代如何重塑“信用体系”》的主要内容分为征信商业模式和大数据在征信领域的应用两大部分。随着近年来国内征信相关法规的出台,国内市场化的征信业开始起步,建设热情高涨,社会需求旺盛,资本市场热捧、大量互联网公司涌入。但是由于起步晚,国内金融、经济和法制环境配套并不完善,所以国内征信业发展过程虽然遇到空前的机会,但是目前还存在短时间内难以解决的瓶颈。相比而言,在欧美发达国家,征信有一百多年的历史,随着信息技术的发展,已经到了一定的专业高度。因此针对国内目前刚起步的市场化征信机构所面临的问题和挑战,本书剖析国外成熟的知名征信机构的发展历程,商业模式和未来趋势,提取对中国征信业建设的启示和有益的经验,希望能够给混乱而有蓬勃发展的中国市场化征信提供借鉴。

    本章从国外和国内两个角度对个人征信业所面临的机遇进行简单分析,试图探究个人征信业的未来。

    目录

    • 前 言 // IX
    • 绪 论 // XI
    • 第1篇
    • 征信机构:市场经济的风险信息服务商
    • 01 美国征信业的前世今生
    • 美国征信业概述 // 005
    • 美国个人征信发展史 // 006
    • 美国个人征信体系的框架 // 010
    • 征信的法律和监管 // 013
    • 个人信用报告 // 015
    • 发展中的美国征信业 // 019
    • 02 益博睿:横跨欧美,全球最 大
    • 益博睿的发展历史 // 023
    • 益博睿的商业模式 // 029
    • 数据资源和分析能力 // 035
    • 03 艾克飞:百年老店,技术领先
    • 艾克飞的基本概况 // 039
    • 艾克飞的历史 // 041
    • 艾克飞商业模式分析 // 042
    • 04 环联:家族企业,姗姗上市
    • 环联概况与历史 // 053
    • 环联的商业模式 // 058
    • 环联的未来之路 // 066
    • 05 服务垂直领域的专业性征信机构
    • 专业征信机构概述 // 075
    • 服务于不同的消费生活场景 // 078
    • 代表性的专业征信机构 // 079
    • 传统征信机构和专业征信机构交互 // 087
    • 06 蓬勃发展的新兴征信服务公司
    • Credit karma 的互联网征信服务 // 095
    • Credit Karma 的商业模式分析 // 099
    • Credit Karma 的竞争对手 // 102
    • 对中国个人征信业的启示 // 104
    • 07 企业征信巨头邓白氏:诞生了四位美国总统
    • 企业/ 商业征信 // 109
    • 邓白氏基本概况 // 111
    • 邓白氏发展历程 // 112
    • 邓白氏的商业模式 // 116
    • 邓白氏公司的业务保障——DUNSRight 数据质量管理流程 // 123
    • 邓白氏在国内关于侵犯个人隐私的事件回顾 // 124
    • 第二篇
    • 信用评估:大数据技术的应用场景
    • 08 全球个人征信机构的大数据征信技术
    • 数据处理:匹配连接和下一代技术 // 135
    • 数据挖掘和分析:释放大数据价值 // 137
    • 数据服务:多元化产品与个性化良好体验的服务 // 139
    • 09 信用评分60 年
    • 信用评分:信用报告的数字化解读 // 146
    • 信用评分的历史 // 147
    • 信用评分的应用 // 151
    • 信用评分的类型 // 154
    • 信用评分模型的原理 // 157
    • 信用评分的缺陷 // 159
    • 10 国外信用评分新进展
    • 信用评分最新趋势 // 167
    • 可替代信用评分 // 169
    • 11 一切数据皆信用的ZestFinance
    • 背景知识 // 179
    • ZestFinance 简介 // 180
    • 传统信用评估方法的缺陷 // 181
    • ZestFinance 的基本商业理念 // 185
    • ZestFinance 大数据信用评估的技术分析 // 188
    • ZestFinance 的最新动态 // 194
    • 对中国征信业的启示 // 195
    • 12 运用大数据做P2P 信用风险评估的Upstart
    • 面向大学毕业生消费者服务的P2P // 201
    • 商业模式:基于未来潜力的大数据信用评估 // 202
    • 智能数据管理和分析技术 // 204
    • 在线信贷的激烈竞争 // 206
    • 对互联网金融的启示 // 207
    • 13 扎根于新兴市场的EFL:看人品,放贷款
    • 利用人品测试放贷款的故事 // 214
    • 来自哈佛的高科技创业公司EFL // 215
    • EFL 进行信用评估的原理 // 217
    • 对EFL 应用的讨论 // 220
    • 类似的信用评估公司VisualDNA // 221
    • 14 征信大数据对宏观金融决策的支持
    • 宏观经济应用概述 // 227
    • 担保圈风险简介 // 228
    • 引入复杂网络技术分析我国担保圈问题 // 230
    • 担保圈复杂网络技术分析的初步发现 // 233
    • 担保圈风险管理的建议 // 242
    • 征信大数据的进一步应用 // 243
    • 15 电信大数据在征信领域中的应用研究
    • 背景介绍 // 247
    • 电信运营业务中的征信问题 // 248
    • 电信大数据在金融征信中的应用 // 253
    • 国内情况分析和政策建议 // 257
    • 16 生物识别技术在征信领域的应用
    • 基于生物特征的身份验证 // 261
    • 指纹识别:乌干达的征信应用 // 263
    • 声纹验证技术 // 264
    • 声纹验证在征信领域的应用 // 266
    • 声纹验证的机遇和挑战 // 268
    • 第三编
    • 征信模式:互联网时代的信息共享机制
    • 17 全球个人征信业所面临的市场机遇
    • 全球个人征信业的机遇 // 275
    • 国内个人征信业的机遇 // 281
    • 18 全球个人征信机构的挑战
    • 信息安全和数据源 // 287
    • 宏观经济形势和市场竞争 // 293
    • 法律和监管的合规性 // 296
    • 19 互联网时代的征信
    • 征信应用岂止互联网金融 // 305
    • 互联网经济下的征信 // 307
    • 物联网中的征信问题 // 310
    • 征信模式:互联网时代的信息共享机制 // 311
    • 参考文献 // 313

    上一篇:Spark MLlib机器学习实践  下一篇:深入理解Elasticsearch

    展开 +

    收起 -

    码小辫二维码
     

    大数据相关电子书
    学习笔记
    网友NO.308383

    vue大数据表格卡顿问题的完美解决方案

    前言 vue渲染小数据挺快,大数据vue开始出现卡顿现象,本文讲给大家详细介绍关于vue大数据表格卡顿问题的解决方法 点我在线体验Demo(请用电脑查看) 亲测苹果电脑,chrome浏览器无卡顿现象,其它浏览器并未测试,如遇到卡顿请备注系统和浏览器,方便我后续优化,谢谢 先看一下效果,一共1000 X 100 = 10W个单元格基本感受不到卡顿,而且每个单元格点击可以编辑,支持固定头和固定列 项目源代码地址 Github(本地下载) 解决问题核心点:横向滚动加载,竖向滚动加载 项目背景 笔者最近在做广告排期功能,需要进行点位预占,大的合同可能需要对多个资源排期,周期可能到几年这样,然后我们的页面交互是这样 横向每个月30个单元格,最多的3年,36个月,每行36*30=1080个单元格 竖向100个资源,总共约️10W个单元格,然后每个单元格里面会有一个输入框,一个库存总数,所以总数是20W个,内网使用,接口请求根本不是问题,可以浏览器渲染就扛不住了接口回来之后会出现几十秒的白屏,整个页面处于卡死状态 这还不算,加载出之后页面操作也是非常卡,滑动延迟严重,页面基本处于瘫痪状态 之前的功能是基于jquery开发的,项目重构用的vue,UI采用了ElementUI,ElmentUI中的表格在数据量较大是有严重的性能问题,最直接的表现就是白屏……

    网友NO.542501

    python金融大数据分析有用吗

    《Python金融大数据分析 》是人民邮电出版社2015年12月出版的中译图书,作者[德]伊夫·希尔皮斯科,译者姚军。 《Python金融大数据分析》,唯一一本详细讲解使用Python分析处理金融大数据的专业图书;金融应用开发领域从业人员必读。适合对使用Python进行大数据分析、处理感兴趣的金融行业开发人员阅读。 (推荐学习:Python视频教程) 内容介绍 Python凭借其简单、易读、可扩展性以及拥有巨大而活跃的科学计算社区,在需要分析、处理大量数据的金融行业得到了广泛而迅速的应用,并且成为该行业开发核心应用的首选编程语言。 《Python金融大数据分析》提供了使用Python进行数据分析,以及开发相关应用程序的技巧和工具。 《Python金融大数据分析》总计分为3部分,共19章。 第1部分介绍了Python在金融学中的应用,其内容涵盖了Python用于金融行业的原因、Python的基础架构和工具,以及Python在计量金融学中的一些具体入门实例; 第2部分介绍了金融分析和应用程序开发中最重要的Python库、技术和方法,其内容涵盖了Python的数据类型和结构、用matplotlib进行数据可视化、金融时间序列数据处理、高性能输入/输出操作、高性能的Python技术和库、金融学中需要的多种数学工具、随机数生成和随机过程模拟、Python统计学应用、Python和Ex……

    网友NO.597076

    mysql大数据查询优化经验分享(推荐)

    正儿八经mysql优化! mysql数据量少,优化没必要,数据量大,优化少不了,不优化一个查询10秒,优化得当,同样查询10毫秒。 这是多么痛的领悟! mysql优化,说程序员的话就是:索引优化和where条件优化。 实验环境:MacBook Pro MJLQ2CH/A,mysql5.7,数据量:212万+ ONE: select * from article INNER JOIN ( SELECT id FROM article WHERE length(content_url) 0 and (select status from source where id = article.source_id)=1 and (select status from category where id = article.category_id)=1 and status = 1 and id 2164931 order by stick desc,pub_time desc limit 240,15 ) AS tUSING(id); 咋一看,大佬肯定会想杀了我,没事做啥自关联,还是inner join。XX楼的,把我的杀猪刀拿来,我要宰了博主!!! 说实话,早上出门我的脑袋没被门挤,我也不想这样的。 1.数据量大了,你要做offset很大的分页查询,还真的这样提速,原因 --- 用join子表中的id覆盖到全表,避免全表扫描。 看我的order by(细语:不就是个order by,TM谁不会写),你把这个order by换成你自己的表中的字段desc or explain看看。Extra --- filesort ! shit ! 2.针对这种多个条件的order by,通常我们会直接给两个字段分别加index,然而还是会Extra --- filesort。另辟蹊径,给order by后面的所有条件加一个联合索引,注意顺序一定要和你的order by顺序一致。这样Extra就只剩下where了。……

    网友NO.651486

    mysql中max_allowed_packet参数的配置方法(避免大数据写入或者更新失败)

    MySQL根据配置文件会限制Server接受的数据包大小。有时候大的插入和更新会受 max_allowed_packet 参数限制,导致写入或者更新失败。 查看目前配置: show VARIABLES like '%max_allowed_packet%'; 显示的结果为: +--------------------+---------+ | Variable_name | Value | +--------------------+---------+ | max_allowed_packet | 1048576 | +--------------------+---------+ 以上说明目前的配置是:1M 修改方法 1、修改配置文件 可以编辑my.cnf来修改(windows下my.ini),在[mysqld]段或者mysql的server配置段进行修改。 max_allowed_packet = 20M 如果找不到my.cnf可以通过 mysql --help | grep my.cnf 去寻找my.cnf文件。 linux下该文件在/etc/下。 2、在mysql命令行中修改 在mysql 命令行中运行: set global max_allowed_packet = 2*1024*1024*10 然后退出命令行,重启mysql服务,再进入。 show VARIABLES like '%max_allowed_packet%'; 查看下max_allowed_packet是否编辑成功 注意:该值设置过小将导致单个记录超过限制后写入数据库失败,且后续记录写入也将失败。 ……

    Copyright 2018-2019 xz577.com 码农之家

    版权责任说明