网站首页  百科知识

请输入您要查询的百科知识:

 

词条 信息量
类别 中文百科知识
释义

信息量amount of information

信息的定量和度量。单位为比特(bit)。1928年,美国物理学家哈特来(R.V. L. Hartleg,1888~1959)在《信息传输》一文中首次提出信息量的概念,并用对数作为信息量的测度。他认为,信息与消息不同,信息是代码、符号、序列,而不是内容本身;信息是消息中不确定性的消除,消息中含有信息。多种多样的消息是信息的载体,消息究竟包含多少信息,应用消息出现的概率对数来计算,即I=log2n(比特)。这里n种不确定性假设是等概率的。美国数学家香农(C.E.Shannon,1916~)和维纳(N.Wiener,1894~1964)假设这几种不确定性的概率为不等,并对此作了深入系统的研究,并各自独立地提出了信息公式。他们证明:如果一个信源,可以产生的独立消息数为n,各消息的概率分别为ρ123,…,ρn,且有,则该信源具有的信息量
式中:K——常数,当对数取以2 为底时,则K=1;
H——信息量,单位为比特(bit)。
信息的定量描述,为各门学科技术的定量化研究开辟了一条新途径。

信息量amount of information

量度信息多少的物理量。信息的度量与它所代表的事件的随机性或各个事件发生的概率有关。信息论中利用统计力学中“熵”的概念,建立对信息的量度方法。假设有n个可能事件的消息,各个事件的概率分别为p1,p2,…,pn; H是每个消息的平均信息量,则:H =-KPilogαPi。式中K为常数,若K=1,α=2,则H的单位是比特(bit)。在计算机信息处理系统中,信息量常用输入量、储存量或输出量来表示。

随便看

 

开放百科全书收录579518条英语、德语、日语等多语种百科知识,基本涵盖了大多数领域的百科知识,是一部内容自由、开放的电子版国际百科全书。

 

Copyright © 2000-2025 oenc.net All Rights Reserved
更新时间:2025/9/28 15:28:33