主动学习--信息熵

时间:2019-01-10
本文章向大家介绍主动学习--信息熵,主要包括主动学习--信息熵使用实例、应用技巧、基本知识点总结和需要注意事项,具有一定的参考价值,需要的朋友可以参考一下。

主动学习–信息熵

一、信息熵是什么?

首先我们得知道,信息量和信息熵不是同一个东西,信息量是对信息的度量,就跟时间的度量是秒一样,当我们考虑一个离散的随机变量x的时候,我们观察到的这个变量的一个具体值的时候,我们接收到了多少信息呢?多少信息用信息量来衡量,我们接受到的信息量跟具体发生的事件有关。信息的大小又跟随机事件的概率有关。越小概率的事情发生了产生的信息量越大,如某地产生了地震(料想不到);越大概率的事情发生了产生的信息量越小,如太阳从东边升起来了(肯定发生,总所周知,就没什么信息量)。这很好理解!

信息熵又有什么不同呢?信息熵又被称为香农熵,是香农提出的,用于解决信息的量化度量问题的。

直观解释:
若不确定性越大,则信息量越大,熵越大
若不确定性越小,则信息量越小,熵越小

信息熵认为一条信息的信息量大小和它的不确定性有直接的关系。可以认为信息量的度量就等于不确定性的多少。信息熵是消除不确定性所需信息量的度量,也即未知事件可能含有的信息量。

在信息论中,熵被用来衡量一个随机变量出现的期望值。他代表了在接受之前,信息传输过程中损失的信息量,又被成为信息熵。信息熵也称信源熵、平均自信量。

二、信息熵数学解释

一个离散型随机变量X的熵H(X)的定义为:
H(X)=p(xi)logp(xi)xX H(X)=−∑p(xi)logp(xi) (x∈X)
其中X表示随机变量,随机变量的取值为(x1,x2,…,xn),p(xi))表示事件xi发生的概率,且有∑p(xi)=1。

首先定义事件xi的信息量为其发生概率对数的负数,记为I(xi),有:
I(xi)=−log(p(xi))​
由该定义可得,H(x)为随机变量X的平均信息量(即期望,期望等于试验中每次可能的结果乘以其结果概率的综合)

​ 为什么I(xi)=−log(p(xi))可以表示为事件xi的信息量?

事件xi的信息量大小和它发生的概率(不确定性)有直接的关系。比如说,要搞清楚一件非常不确定的事,或是一无所知的事情(即:信息量小),就需要了解大量的信息。相反,如果对某件事已经有较多了解,我们不需要太多的信息就能把它搞清楚。即信息量函数应该与事件概率成单调递减关系。同时,两个独立事件xi,xj(满足p(xi,xj)=p(xi)∗p(xj)信息量大小应等于各自信息量之和。那么同时符合以上要求的是I(xi)=−logp(xi)。 (取log原因: p(xi,xj)=p(xi)∗p(xj),info(xi,xj)=info(xi)+info(xj),也就是只有对数能使其相加。)

三、例子

赌马比赛里,有4匹马{A,B,C,D},获胜的概率分别为1/2,1/4,1/8,1/8 。

那么接下来我们将获胜视为一个随机变量X∈{A,B,C,D}。由于信息不明确,所以这里我们采用提问的手段来确定随机变量X的取值情况。

我们准备了四个问题:A获胜了吗?B获胜了吗?C获胜了吗?我们通过最多这三个问题就可以得到我们想要的答案。

  • 当X=A,那么需要问1次,p( A )=1/2;也可以将这句解读为有1/2的机率提问一个问题即可得到答案。
  • 当X=B,那么需要问2次,p( B )=1/4;表示有1/4的机率问3个问题即可得到答案。
  • 当X=C,那么需要问3次,p( C )=1/8;表示有1/8的机率问3个问题即可得到答案。
  • 当X=D,那么需要问3次,p( D )=1/8;表示有1/8的机率问3个问题即可得到答案。

在这种文法下,那么X取值的二元问题数量(期望)为:

E(N)=1/21+1/42+1/83+1/83=7/4E(N)=1/2⋅1+1/4⋅2+1/8⋅3+1/8⋅3=7/4

根据信息熵的定义,会得到(这里取以2为底):

H(X)=1/2log(2)+1/4log(4)+1/8log(8)+1/8log(8)=7/4bitsH(X)=1/2log(2)+1/4log(4)+1/8log(8)+1/8log(8)=7/4 bits

这也就验证了上述的概念:H(x)为随机变量X的平均信息量(即期望,期望等于试验中每次可能的结果乘以其结果概率的综合)

值得一提的是

  • 对数的底数可以是任意数,但是只有在取 2 的时候,信息熵的单位才是bit。
  • 当事件的概率都相同时,信息熵最大。

四、信息熵的特性

  • 单调性,及发生概率越高的事件,其所携带的信息熵越低。极端案例就是最开始提到的”太阳从东方升起“,因为为确定事件,所以不懈怠任何信息量。从信息论的角度,认为这句话没有消除任何不确定性。
  • 非负性,即信息熵不能为负。如果这句话正确就是,当你得知某个信息后,却增加了不确定性是不合逻辑的。
  • 累加性,即多随机事件同时发生存在的总不确定性的亮度可以表示为各个不确定性的亮度的和。公式就是如下:

事件X=A,Y=B同时发生。
两个事件相互独立P(X=AY=B)=PX=A(X=B) P(X=A,Y=B)=P(X=A)⋅(X=B)。
信息熵就是:H(AB=H(A)+H(B)H(A,B)=H(A)+H(B)

根据这非负性,我们就能够理解表达式前面的 负号(概率是小数,从对数后面提出去就会有个负号,负负得正。)

五、信息熵的应用

主动学习 中的样例选择度量主要分为2种:1)不确定性度量;2)差异性度量或代表性度量。而样例的不确定性一般可通过 计算其信息熵 获得。

待续。。。。。