');}
Processing math: 100%

Information Measures of Discrete Systems

Information Theory(Information Measures of Discrete Systems)

随机事件E信息量\Tau(E)的衡量满足三个条件

  1. 是随机事件E发生概率Pr(E)的单调递减函数
  2. T(E)Pr(E)的连续函数
  3. 独立事件E1,E2交集的量度等于两者量度之和T(E1E2)=T(E1)+T(E2)
  4. T(E)0,了解一个事件不会让不确定度降低

唯一符合以上公设的数学形式写成

I(p)=clogb(p)

c,b>0

启发启发启发启发启发,显然概率越小的事件发生价值越大

Entropy视为事件发生的信息量的期望

H(X)=E[T(X)]=PX(x)logb1PX(x)

介绍一些数学结论

11xlnxx1logD(x)logD(e)(x1)

Upper Bound of Entropy

H(X)log2|X|

Uniform的概率分布entropy最大

Log-sum inequality

iailogDaibiiai(logDiaiibi)

prove

iai(logDiaiibilogDaibi)iai(biaiaiibi1)=0

Joint Entropy刻画了多个随机变量的信息增益

H(X,Y)=Ex,y|PX,Y[log2PX,Y(X,Y)]

Conditional Entropy定义类似,给定发送端数据X条件下,接收端得到的信息增益

H(Y|X)=Ex[H(Y|x)]

Chain Rule

H(X,Y)=H(X)+H(Y|X)

共有信息量=发送端信息量+传输端条件信息量

考虑三者传输

1
2
3
4
graph LR
X-->Y
X-->Z
Z-->Y

满足

H(X,Y|Z)=H(X|Z)+H(Y|X,Z)p(x,y|z)=p(x,y,z)p(z)=p(x,y,z)×p(x,z)p(x,z)×p(z)=p(y|x,z)p(x|z)

Side Information告诉我们引入一个新的conditional side information不会让系统不确定性增加

H(Y|X)H(Y)

同理

H(X1,X2|Y1,Y2)H(X1|Y1)+H(X2|Y2)

Mutual information用于表示H(Y|X)和H(X|Y)的交集

I(X;Y)=H(X)H(X|Y)=H(X)+H(Y)H(X,Y)=D(PX,YPXPY)

I(X;Y)=0代表X和Y相互独立,这代表我们的信道不能正确传输信息(信道能传送的信息)

考虑多个输出端的情况

I(X;Y,Z)=D(PX,Y,ZPXPY,Z)

X同时送给Y和Z,满足

I(X;Y,Z)=I(X;Y)+I(X;Z|Y)I(X;Z|Y)=yPY(y)I(X|y;Z|y)=uPY(y)D(P(X,Y)|zPX|y×PZ|y)

以上用到了条件互信息,可以写成

image-20231129150212865

显然可以拆分成

I(X;Y|Z)=x,y,zpX,Y,Z(x,y,z)logPX,Y,Z(x,y,z)PY,Z(y,z)+x,y,zPX,Y,Z(x,y,z)logPZ(z)PX,Z(x,z)=D(PX,Y,ZPY,Z)D(PX,ZPZ)=I(X;Y,Z)I(X,Z)

扩展到多到一的场景

H(X1,X2,,Xn;Y)=ni=1H(Xi;Y|X1,,Xi1)

Entropy也遵循类似的Chain Rule

H(X1,X2,,Xn)=iH(Xi|X1,X2,,Xi1)iH(Xi)

同理考虑多对多的传输

I(X1,X2;Y1,Y2)I(X1;Y1)+I(X2;Y2)

取等号满足

P(y2,y1|x2,x1)=p(y2|x2)p(y1|x1)

时序上互相独立

一起传输不如一对一传输的效率高

本站访客数1938人次