《信息论基础第2版》答案

  • 更新时间:
  • 4412人关注
  • 点击下载

这是一个不错的信息论类学习资源,由关蓝尹 提供,主要知识点是关于信息论、基础、信息论的内容,已被261人关注,同类资源中评分为8.7分。

信息的度量

信息的度量和不确定性消除的程度有关

不确定性的程度与事件发生的概率有关

信息量与概率的关系:

信息量是概率的单调递减函数

概率小,信息量大

概率大,信息量小

自信息量的物理含义

自信息量表示事件发生后,该事件给予观察者的信息量。

自信息量的大小取决于事件发生的概率。事件发生的可能性越大,它所包含的信息量就越小。反之,事件发生的概率越小,它能提供的信息量就越大。

相关资源

  • 统计信息化:Excel与SPSS应用

    统计信息化:Excel与SPSS应用

    肖文博主编的 《统计信息化--Excel与SPSS应用 》 的编写目的就是为高等院校学生运用Excel和SPSS 进行数据处理和分析提供一个指南,一方面努力使读 者能够迅速地掌握使用Excel和SPSS进行统计分析

    大小:48.1 MB统计信息

    立即下载
  • 网络信息安全与保密

    网络信息安全与保密

    这书对网络安全与信息保密作了较为全方位系统软件的科学研究和详细介绍。全书共六章,各自对网络安全与信息保密、登陆密码技术性、防火墙技术、虚拟专用网技术性、病毒感染与反病毒

    大小:19.6 MB网络安全

    立即下载
  • 物流管理信息系统

    物流管理信息系统

    大小:2800 MB MB物流系统

    立即下载
  • 应对多突发事件的信息系统应用技术

    应对多突发事件的信息系统应用技术

    大小:8768 MB MB信息技术

    立即下载
  • ArcGIS Engine地理信息系统开发教程

    ArcGIS Engine地理信息系统开发教程

    ArcGIS Engine地理信息系统开发教程 基于ArcGIS Engine 10,以C#.NET 2010为开发语言进行讲解。内容包括ArcGIS Engine编程基础、GIS应用软件的开发方式、地图基本操作、查询统计、地图制图、数据编辑、空

    大小:1.3GB MBArcGIS

    立即下载
  • 电子政务顶层设计:信息化条件下的政府业务规划

    电子政务顶层设计:信息化条件下的政府业务规划

    本书结合我国信息化发展和政府改革的时代背景,系统地论述了电子政务顶层设计的基本框架与方法体系。全书分为八章,在分析国内外理论体系与实践现状的基础上,阐明了我国电子政务顶层设计的目标与推进策略,构建了顶层设计的基本框架,并对框架内各架构的具体设计方法进行了详细阐述,探讨了电子政务顶层设计成果的应用方式,最后系统介绍福建省和上海市电子政务顶层设计实践的相关思路与方法。

    大小:7123 MB MB电子政务

    立即下载
  • Python生物信息学数据管理(含源码)

    Python生物信息学数据管理(含源码)

    生物科学学校的Python课程内容教材内容,合适大学本科课堂教学或制造行业人员的Python短期培训班。这书案例借以处理分子生物学难题,根据程序编写手法的方式,包含尽量多的机构、剖析、

    大小:70.7 MBPython

    立即下载

学习笔记

信息论基础总结
信息论基础总结

信息论基础

1、熵和信息量

有一组离散符号集{v1,v2,...,vm},每个符号具有相应概率Pi,为衡量这组符号组成的特定序列的随机性(不确定性或不可预测性),定义离散分布的熵:,对数以2为底,熵的单位的“比特”,当连续情况时,底数为e,单位为“奈特”。对于回答是否问题时,每个可能答案出现概率为0.5,那么此时的熵为1。熵的公式也可写为:H=ε[log(1/P)],P是随机变量,取值P1,P2,...Pm,log21/P有时称惊奇率。

熵的值并不依赖与符号本身,而只依赖于这些符号的概率。对于给定的m个符号,当这些符号出现的概率相同时,熵最大(H=log2m)。即当每个符号出现的概率相同时,对下一个符号出现什么的不确定性最大。只有一个符号的概率为1,其他为零时,熵最小,为0。

对连续情况熵定义为:

数学期望形式为H=ε[ln(1/p)]。在所有的连续密度函数中,如果均值μ和方差σ2都取已知的固定值,高斯分布使熵达到最大值H=0.5+log2(根号下2π乘以σ)。如果让方差趋近0,则高斯函数将趋近于狄拉克函数,此时熵最小为负无穷大。对于狄拉克函数的分布,几乎能确定每次出现的x的值就是a。

对于随机变量x和任意函数f(·),有H(f(x))≤H(x),即对原始信号的任何处理都不能增加熵(信息量)。若f(x)是取常值的函数,则熵为0。离散分布熵的另一个重要性质:任意改变事件标记,不会影响这组符号的熵,因为熵只与符号出现概率有关,与符号本身无关。但对于连续随机变量则不一定成立。

2、相对熵

假设对同一离散变量x,有2种可能形式的离散概率分布p(x)和q(x)。为了衡量这两个分布之间的距离,定义相对熵(Kullback-Leiber距离):

连续情况下相对熵定义为:

相对熵不是一个真正的度量,因为把p和q互相交换时,DKL并不具有对称性

3、互信息

假设有两个不同变量概率分布,p(x)和q(x)。互信息指在获得一个变量的信息后,对另一个变量的不确定性的减少的量