词条 | 信息量 |
类别 | 中文百科知识 |
释义 | 信息量amount of information信息的定量和度量。单位为比特(bit)。1928年,美国物理学家哈特来(R.V. L. Hartleg,1888~1959)在《信息传输》一文中首次提出信息量的概念,并用对数作为信息量的测度。他认为,信息与消息不同,信息是代码、符号、序列,而不是内容本身;信息是消息中不确定性的消除,消息中含有信息。多种多样的消息是信息的载体,消息究竟包含多少信息,应用消息出现的概率对数来计算,即I=log2n(比特)。这里n种不确定性假设是等概率的。美国数学家香农(C.E.Shannon,1916~)和维纳(N.Wiener,1894~1964)假设这几种不确定性的概率为不等,并对此作了深入系统的研究,并各自独立地提出了信息公式。他们证明:如果一个信源,可以产生的独立消息数为n,各消息的概率分别为ρ1,ρ2,ρ3,…,ρn,且有 信息量amount of information量度信息多少的物理量。信息的度量与它所代表的事件的随机性或各个事件发生的概率有关。信息论中利用统计力学中“熵”的概念,建立对信息的量度方法。假设有n个可能事件的消息,各个事件的概率分别为p1,p2,…,pn; H是每个消息的平均信息量,则:H =-K |
随便看 |
开放百科全书收录579518条英语、德语、日语等多语种百科知识,基本涵盖了大多数领域的百科知识,是一部内容自由、开放的电子版国际百科全书。