logo
天地变化的道理
使用率很高网站
生活要常常分享
您身边百科全书
免费为您秀产品
熵 (信息论)
熵 (信息论) 在信息论中,熵()是接收的每条消息中包含的信息的平均量,又被称为信息熵、信源熵、平均自信息量。这里,“消息”代表来自分布或数据流中的事件、样本或特征。(熵最好理解为不确定性的量度而不是确定性的量度,因为越随机的信源的熵越大。)来自信源的另一个特征是样本的概率分布。这里的想法是,比较不可能发生的事情,当它发生了,会提供更多的信息。由于一些其他的原因,把信息(熵)定义为概率分布的对数的相反数是有道理的。事件的概率分布和每个事件的信息量构成了一个随机变量,这个随机变量的均值(即期望)就是这个分布产生的信息量的平均值(即熵)。熵的单位通常为比特,但也用Sh、nat、Hart计量,取决于定义用到对数的底。 采用概率分布的对数作为信息的量度的原因是其可加性。例如,投掷一次硬币提供了1 Sh的信息,而掷m次就为m位。更一般地,你需要用log2("n")位来表示一个可以取"n"个值的变量。 在1948年,克劳德·艾尔伍德·香农将热力学的熵,引入到信息论,因此它又被称为香农熵(Shannon entropy)。 简介. 熵的概念最早起源于物理学,用于度量一个热力学系统的无序程度。在信息论里面,熵是对不确定性的测量。但是在信息世界,熵越高,则能传输越多的信息,熵越低,则意味着传输的信息越少。 英语文本数据流的熵比较低,因为英语很容易读懂,也就是说很容易被预测。即便我们不知道下一段英语文字是什么内容,但是我们能很容易地预测,比如,字母e总是比字母z多,或者qu字母组合的可能性总是超过q与任何其它字母的组合。如果未经压缩,一段英文文本的每个字母需要8个比特来编码,但是实际上英文文本的熵大概只有4.7比特。这是由于英文的编码包含了各式符号,如逗号、引号等。因此英文输入法使用了8个位元来表达一共256个字母及符号。 如果压缩是无损的,即通过解压缩可以百分之百地恢复初始的消息内容,那么压缩后的消息携带的信息和未压缩的原始消息是一样的多。而压缩后的消息可以通过较少的比特传递,因此压缩消息的每个比特能携带更多的信息,也就是说压缩信息的熵更加高。熵更高意味着比较难于预测压缩消息携带的信息,原因在于压缩消息里面没有冗余,即每个比特的消息携带了一个比特的信息。香农的信源编码定理揭示了,任何无损压缩技术不可能让一比特的消息携带超过一比特的信息。消息的熵乘以消息的长度决定了消息可以携带多少信息。 香农的信源编码定理同时揭示了,任何无损压缩技术不可能缩短任何消息。根据鸽笼原理,如果有一些消息变短,则至少有一条消息变长。在实际使用中,由于我们通常只关注于压缩特定的某一类消息,所以这通常不是问题。例如英语文档和随机文字,数字照片和噪音,都是不同类型的。所以如果一个压缩算法会将某些不太可能出现的,或者非目标类型的消息变得更大,通常是无关紧要的。但是,在我们的日常使用中,如果去压缩已经压缩过的数据,仍会出现问题。例如,将一个已经是FLAC格式的音乐文件压缩为ZIP文件很难使它占用的空间变小。 熵的计算. 如果有一枚理想的硬币,其出现正面和反面的机会相等,则抛硬币事件的熵等于其能够达到的最大值。我们无法知道下一个硬币抛掷的结果是什么,因此每一次抛硬币都是不可预测的。因此,使用一枚正常硬币进行若干次抛掷,这个事件的熵是一比特,因为结果不外乎两个——正面或者反面,可以表示为codice_1编码,而且两个结果彼此之间相互独立。若进行codice_2次独立实验,则熵为codice_2,因为可以用长度为codice_2的比特流表示。但是如果一枚硬币的两面完全相同,那个这个系列抛硬币事件的熵等于零,因为结果能被准确预测。现实世界里,我们收集到的数据的熵介于上面两种情况之间。 另一个稍微复杂的例子是假设一个随机变量codice_5,取三种可能值,概率分别为,那么编码平均比特长度是:。其熵为3/2。 因此熵实际是对随机变量的比特量和顺次发生概率相乘再总和的数学期望。 定义. 依据Boltzmann's H-theorem,香农把随机变量"X"的熵值 Η(希腊字母Eta)定义如下,其值域为{"x"1, ..., "x""n"}: formula_1。 其中,P为"X"的机率质量函数(probability mass function),E为期望函数,而I("X")是"X"的资讯量(又称为资讯本体)。I("X")本身是个随机变数。 当取自有限的样本时,熵的公式可以表示为: formula_2 在这里"b"是对数所使用的底,通常是2,自然常数e,或是10。当"b" = 2,熵的单位是bit;当"b" = e,熵的单位是nat;而当"b" = 10,熵的单位是Hart。 "p""i" = 0时,对于一些"i"值,对应的被加数0 log"b" 0的值将会是0,这与极限一致。 formula_3。 还可以定义事件 "X" 与 "Y" 分别取 "xi" 和 "yj" 时的条件熵为 formula_4 其中"p"("xi", "yj")为 "X" = "xi" 且 "Y" = "yj" 时的概率。这个量应当理解为你知道"Y"的值前提下随机变量 "X" 的随机性的量。 范例. 如果有一个系统S内存在多个事件S = {E1...,En},每个事件的机率分布P = {p1, ..., pn},则每个事件本身的讯息(资讯本体)为: formula_5(对数以2为底,单位是位元(bit)) formula_6(对数以formula_7为底,单位是纳特/nats) 如英语有26个字母,假如每个字母在文章中出现次数平均的话,每个字母的讯息量为: formula_8 以日文五十音平假名作为相对范例,假设每个平假名日语文字在文章中出现的机率相等,每个平假名日语文字可携带的资讯量为: formula_9 而汉字常用的有2500个,假如每个汉字在文章中出现次数平均的话,每个汉字的信息量为: formula_10 实际上每个字母和每个汉字在文章中出现的次数并不平均,比方说较少见字母(如z)和罕用汉字就具有相对高的信息量。但上述计算提供了以下概念:使用书写单元越多的文字,每个单元所包含的讯息量越大。 熵是整个系统的平均消息量,即: formula_11 因为和热力学中描述热力学熵的玻尔兹曼公式本质相同(仅仅单位不同,一纳特的信息量即相当于k焦耳每开尔文的热力学熵),所以也称为“熵”。 如果两个系统具有同样大的消息量,如一篇用不同文字写的同一文章,由于汉字的信息量较大,中文文章应用的汉字就比英文文章使用的字母要少。所以汉字印刷的文章要比其他应用总体数量少的字母印刷的文章要短。即使一个汉字占用两个字母的空间,汉字印刷的文章也要比英文字母印刷的用纸少。 熵的特性. 可以用很少的标准来描述香农熵的特性,将在下面列出。任何满足这些假设的熵的定义均正比以下形式 formula_12 其中",K"是与选择的度量单位相对应的一个正比常数。 下文中,"pi" = Pr("X" = "xi")且formula_13 连续性. 该量度应连续,概率值小幅变化只能引起熵的微小变化。 对称性. 符号"xi"重新排序后,该量度应不变。 formula_14等。 极值性. 当所有符号有同等机会出现的情况下,熵达到最大值(所有可能的事件同等概率时不确定性最高)。 formula_15。 等概率事件的熵应随符号的数量增加。 formula_16 可加性. 熵的量与该过程如何被划分无关。 最后给出的这个函数关系刻画了一个系统与其子系统的熵的关系。如果子系统之间的相互作用是已知的,则可以通过子系统的熵来计算一个系统的熵。 给定"n"个均匀分布元素的集合,分为"k"个箱(子系统),每个里面有 "b"1, ..., "bk" 个元素,合起来的熵应等于系统的熵与各个箱子的熵的和,每个箱子的权重为在该箱中的概率。 对于正整数"bi"其中"b"1 + ... + "bk" = "n"来说, formula_17。 选取"k" = "n","b"1 = ... = "bn" = 1,这意味着确定符号的熵为零:Η1(1) = 0。这就是说可以用"n"进制熵来定义"n"个符号的信源符号集的效率。参见信息冗余。 进一步性质. 香农熵满足以下性质,借由将熵看成「在揭示随机变量"X"的值后,从中得到的信息量(或消除的不确定性量)」,可来帮助理解其中一些性质。 formula_18 formula_19 具有均匀概率分布的信源符号集可以有效地达到最大熵log"b"("n"):所有可能的事件是等概率的时候,不确定性最大。 formula_20。 formula_21 所以Η("f"("X")) ≤ Η("X"),因此当后者是通过确定性函数传递时,变量的熵只能降低。 formula_22。 formula_23。 在前两条熵的性质基础上,很容易用数学证明这一点。 和热力学熵的联系. 物理学家和化学家对一个系统自发地从初始状态向前演进过程中,遵循热力学第二定律而发生的熵的变化更感兴趣。在传统热力学中,熵被定义为对系统的宏观测定,并没有涉及概率分布,而概率分布是信息熵的核心定义。 根据Jaynes(1957)的观点,热力学熵可以被视为香农信息理论的一个应用: 热力学熵被解释成与定义系统的微态细节所需的进一步香农资讯量成正比,波兹曼常数为比例系数,其中系统与外界无交流,只靠古典热力学的巨观变数所描述。加热系统会提高其热力学熵,是因为此行为增加了符合可测巨观变数 的系统微态的数目,也使得所有系统的的完整叙述变得更长。(假想的)麦克斯韦妖可利用每个分子的状态信息,来降低热力学熵,但是(于1961年)和及其同事则证明了,让小妖精行使职责本身——即便只是了解和储存每个分子最初的香农信息——就会给系统带来热力学熵的增加,因此总的来说,系统的熵的总量没有减少。这就解决了Maxwell思想实验引发的悖论。兰道尔原理也为现代计算机处理大量资讯时所产生的热量给出了下限,虽然现在计算机的废热远远比这个限制高。 逸闻. 贝尔实验室曾流传一则可信度不高的传闻:冯诺依曼建议香农为这个概念取名为“熵”,理由是这个热力学名词别人不懂,容易被唬住。
熵 (信息论)
本站由爱斯园团队开发维护,感谢
那些提出宝贵意见和打赏的网友,没有你们的支持,
网站不可能发展到今天,
继往开来,善终如始,我们将继续砥砺前行。
Copyright ©2014 iissy.com, All Rights Reserved.