Information Measures of Discrete Systems
Information Theory(Information Measures of Discrete Systems)
随机事件E信息量\Tau(E)的衡量满足三个条件
- 是随机事件E发生概率Pr(E)的单调递减函数
- T(E)是Pr(E)的连续函数
- 独立事件E1,E2交集的量度等于两者量度之和T(E1⋂E2)=T(E1)+T(E2)
- T(E)≥0,了解一个事件不会让不确定度降低
唯一符合以上公设的数学形式写成
I(p)=−clogb(p)c,b>0
启发启发启发启发启发,显然概率越小的事件发生价值越大
Entropy视为事件发生的信息量的期望
H(X)=E[T(X)]=∑PX(x)logb1PX(x)介绍一些数学结论
1−1x≤lnx≤x−1logD(x)≤logD(e)(x−1)Upper Bound of Entropy
H(X)≤log2|X|Uniform的概率分布entropy最大
Log-sum inequality
∑iailogDaibi≥∑iai(logD∑iai∑ibi)prove
∑iai(logD∑iai∑ibi−logDaibi)≤∑iai(bi∑aiai∑ibi−1)=0Joint Entropy刻画了多个随机变量的信息增益
H(X,Y)=Ex,y|PX,Y[−log2PX,Y(X,Y)]Conditional Entropy定义类似,给定发送端数据X条件下,接收端得到的信息增益
H(Y|X)=Ex[H(Y|x)]Chain Rule
H(X,Y)=H(X)+H(Y|X)共有信息量=发送端信息量+传输端条件信息量
考虑三者传输
1 | graph LR |
满足
H(X,Y|Z)=H(X|Z)+H(Y|X,Z)p(x,y|z)=p(x,y,z)p(z)=p(x,y,z)×p(x,z)p(x,z)×p(z)=p(y|x,z)p(x|z)Side Information告诉我们引入一个新的conditional side information不会让系统不确定性增加
H(Y|X)≤H(Y)同理
H(X1,X2|Y1,Y2)≤H(X1|Y1)+H(X2|Y2)Mutual information用于表示H(Y|X)和H(X|Y)的交集
I(X;Y)=H(X)−H(X|Y)=H(X)+H(Y)−H(X,Y)=D(PX,Y∥PXPY)I(X;Y)=0代表X和Y相互独立,这代表我们的信道不能正确传输信息(信道能传送的信息)
考虑多个输出端的情况
I(X;Y,Z)=D(PX,Y,Z∥PXPY,Z)X同时送给Y和Z,满足
I(X;Y,Z)=I(X;Y)+I(X;Z|Y)I(X;Z|Y)=∑yPY(y)I(X|y;Z|y)=∑uPY(y)D(P(X,Y)|z∥PX|y×PZ|y)以上用到了条件互信息,可以写成
显然可以拆分成
I(X;Y|Z)=∑x,y,zpX,Y,Z(x,y,z)logPX,Y,Z(x,y,z)PY,Z(y,z)+∑x,y,zPX,Y,Z(x,y,z)logPZ(z)PX,Z(x,z)=D(PX,Y,Z∥PY,Z)−D(PX,Z∥PZ)=I(X;Y,Z)−I(X,Z)扩展到多到一的场景
H(X1,X2,⋯,Xn;Y)=n∑i=1H(Xi;Y|X1,⋯,Xi−1)Entropy也遵循类似的Chain Rule
H(X1,X2,⋯,Xn)=∑iH(Xi|X1,X2,⋯,Xi−1)≤∑iH(Xi)同理考虑多对多的传输
I(X1,X2;Y1,Y2)≤I(X1;Y1)+I(X2;Y2)取等号满足
P(y2,y1|x2,x1)=p(y2|x2)p(y1|x1)时序上互相独立
一起传输不如一对一传输的效率高