logo
天地变化的道理
使用率很高网站
生活要常常分享
您身边百科全书
免费为您秀产品
信息论
信息论 信息论()是应用数学、电子学和计算机科学的一个分支,涉及信息的量化、存储和通信等。信息论是由克劳德·香农发展,用来找出信号处理与通信操作的基本限制,如数据压缩、可靠的存储和数据传输等。自创立以来,它已拓展应用到许多其他领域,包括统计推断、自然语言处理、密码学、神经生物学、进化论和分子编码的功能、生态学的模式选择、热物理、量子计算、语言学、剽窃检测、模式识别、异常检测和其他形式的数据分析。 熵是信息的一个关键度量,通常用一条消息中需要存储或传输一个的平均比特数来表示。熵衡量了预测随机变量的值时涉及到的不确定度的量。例如,指定掷硬币的结果(两个等可能的结果)比指定掷骰子的结果(六个等可能的结果)所提供的信息量更少(熵更少)。 信息论将信息的传递作为一种统计现象来考虑,给出了估算通信信道容量的方法。信息传输和信息压缩是信息论研究中的两大领域。这两个方面又由信道编码定理、信源-信道隔离定理相互联系。 信息论的基本内容的应用包括无损数据压缩(如ZIP文件)、有损数据压缩(如MP3和JPEG)、信道编码(如数字用户线路(-- ))。这个领域处在数学、统计学、计算机科学、物理学、神经科学和电机工程学的交叉点上。信息论对航海家深空探测任务的成败、光盘的发明、手机的可行性、互联网的发展、语言学和人类感知的研究、对黑洞的了解,以及许多其他领域都影响深远。信息论的重要子领域有信源编码、信道编码、算法复杂性理论、算法信息论、资讯理论安全性和信息度量等。 简述. 信息论的主要内容可以类比人类最广泛的交流手段——语言来阐述。 一种简洁的语言(以英语为例)通常有两个重要特点: 首先,最常用的词(比如"a"、"the"、"I")应该比不太常用的词(比如"benefit"、"generation"、"mediocre")要短一些;其次,如果句子的某一部分被漏听或者由于噪声干扰(比如一辆车辆疾驰而过)而被误听,听者应该仍然可以抓住句子的大概意思。而如果把电子通信系统比作一种语言的话,这种健壮性(-- )是不可或缺的。将健壮性引入通信是通过信道编码完成的。信源编码和信道编码是信息论的基本研究课题。 注意这些内容同消息的重要性之间是毫不相干的。例如,像“多谢;常来”这样的客套话与像“救命”这样的紧急请求在说起来、或者写起来所花的时间是差不多的,然而明显后者更重要,也更有实在意义。信息论却不考虑一段消息的重要性或内在意义,因为这些是数据的质量的问题而不是数据量(数据的长度)和可读性方面上的问题,后者只是由概率这一因素单独决定的。 信息的度量. 信息熵. 美国数学家克劳德·香农被称为“信息论之父”。人们通常将香农于1948年10月发表于《》上的论文《》作为现代信息论研究的开端。这一文章部分基于哈里·奈奎斯特和于1920年代先后发表的研究成果。在该文中,香农给出了信息熵的定义: formula_1 其中formula_2为有限个事件x的集合,formula_3是定义在formula_2上的随机变量。信息熵是随机事件不确定性的度量。 信息熵与物理学中的热力学熵有着紧密的联系: formula_5 其中S(X)为热力学熵,H(X)为信息熵,formula_6为波兹曼常数。 事实上这个关系也就是广义的波兹曼熵公式,或是在正则系综内的热力学熵表示式。如此可知,玻尔兹曼与吉布斯在统计物理学中对熵的工作,启发了信息论的熵。 信息熵是信源编码定理中,压缩率的下限。若编码所用的资讯量少于信息熵,则一定有资讯的损失。香农在大数定律和的基础上定义了和典型-{序列}-。典型集是典型-{序列}-的集合。因为一个独立同分布的formula_3-{序列}-属于由formula_3定义的典型集的机率大约为1,所以只需要将属于典型集的无记忆formula_3信源-{序列}-编为唯一可译码,其他-{序列}-随意编码,就可以达到几乎无损失的压缩。 例子. 设有一个三个面的骰子,三面分别写有formula_10,formula_3为掷得的数,掷得各面的概率为 formula_12 则 formula_13 联合熵与条件熵. 联合熵(-- )由熵的定义出发,计算联合分布的熵: formula_14 条件熵(-- ),顾名思义,是以条件机率formula_15计算: formula_16 由贝氏定理,有formula_17,代入联合熵的定义,可以分离出条件熵,于是得到联合熵与条件熵的关系式: formula_18 链式法则. 可以再对联合熵与条件熵的关系做推广,假设现在有formula_19个随机变量formula_20,重复分离出条件熵,有: formula_21 其直观意义如下:假如接收一段数列formula_22,且先收到formula_23,再来是formula_24,依此类推。那么收到formula_23后总讯息量为formula_26,收到formula_24后总讯息量为formula_28,直到收到formula_29后,总讯息量应为formula_30,于是这个接收过程给出了链式法则。 互信息. 互信息(-- )是另一有用的信息度量,它是指两个事件集合之间的相关性。两个事件formula_3和formula_32的互信息定义为: formula_33 其意义为,formula_32包含formula_3的多少资讯。在尚未得到formula_32之前,对formula_3的不确定性是formula_38,得到formula_32后,不确定性是formula_40。所以一旦得到formula_32,就消除了formula_42的不确定量,这就是formula_32对formula_3的资讯量。 如果formula_45互为独立,则formula_46,于是formula_47。 又因为formula_48,所以 formula_49 其中等号成立条件为formula_50,formula_51是一个-{zh:双射;zh-hans:双射;zh-hant:对射}-函数。 互信息与以及皮尔森卡方检定有着密切的联系。 应用. 信息论被广泛应用在: 外部链接. -{H|zh-hans:重定向;zh-hant:重新导向;}--{H|zh-cn:字符;zh-tw:字元;}--{H|zh-hans:文件; zh-hant:档案;}--{H|zh-hans:快捷方式; zh-hant:捷径;}--{H|zh-hans:项目;zh-hant:专案;zh-tw:计划;zh-hk:计划;zh-mo:计划;}--{H|zh-cn:计算机; zh-sg:电脑; zh-tw:电脑;}-
信息论
本站由爱斯园团队开发维护,感谢
那些提出宝贵意见和打赏的网友,没有你们的支持,
网站不可能发展到今天,
继往开来,善终如始,我们将继续砥砺前行。
Copyright ©2014 iissy.com, All Rights Reserved.