Data Transmission Inequality

Information Theory(Data Transmission Inequality)

回顾:Entropy and Mutual Entropy

Entropy是满足三条假设的用于刻画随机变量信息量的函数

互信息$I(X;Y)$被视为联合分布$P_{XY}$和两个边缘分布$P_X P_Y$的KL散度

可以写成

从通信角度,互信息I(X;Y)建模了输入X,经过信道得到输出Y这个过程能够获得信息增益$H(Y)- H(Y|X)$或者是否能够根据信道输出反推出输入是什么,假定信道不包含任何噪音,则$H(Y|X) = 0$,此时有

Data Processing Inequality

考虑单向MDP过程

一定有

这是因为给定Y,X/Z相对独立,此时有

因此

这种情况下,给定Z不会导致从X传输到Y的信息量增加,即

知识知识完全来自于Y,如果Z可以直接得到X的信息,此时$I(X;Y|Z)> I(X;Y)$也有可能成立

假设X、Y独立,则I(X;Y) = 0,规定$Z = X+Y$,此时一定有

给定Z和X一定能推理出Y

同理,对于

$\forall 1\leq i\leq j \leq k \leq m \leq n$,有

Fano’s Inequality

恢复恢复恢复恢复恢复恢复恢复恢复恢复恢复恢复恢复恢复恢复*出X(这个过程中需要定义decoder函数f,如果$\hat X=f(Y)\neq X$则任务e发生,这是一个0-1随机变量),那么满足

左边代表从接收端推断传输端的不确定度(译码),取决于译码错误的概率和编码空间大小

这个公式的最大意义是确定了译码操作相对熵的上限

其中

证明

定义

根据链式法则,得到

这里的证明基于条件熵的拆分公式$H(X,Y) = H(X)+ H(Y|X)$,得到推论$H(X,Y|Z) = H(X|Z) + H(X|X,Z)$多增加一份conditional

显然$H(E|X,\hat X) = 0$(因为$X=\hat X$或$X\neq \hat X$导致E的取值是确定性的),并且$H(E|\hat X)\leq H(E)$,对应binary entropy

这里H(X,Y|Z)表示

$H(X|Y,Z)$表示为

拆分$H(X|E,\hat X)$,写成

这是因为$H(X|E=0,\hat X)$必然满足$\hat X= X$,此时$H(X|E=1,\hat X)$对应的情况是$X\neq \hat X$,对应的upper bound是在输入空间-1上均匀分布

假设$X \in \{0,1,2,3\}$,对应$H(X|E=1,\hat X)$最大对应

因此有

另一个证明(sharp bound,等号仅在特定时候成立),将其视为一个MDP

引入decoder一个目的是让编码/解码空间相同,例如$X\in \{-1,1\}\Rightarrow Y\in \R$,此时一定有

因此有

只要证明$H(X|\hat X)\leq RHS$即可,根据定义

直接相减

拆分成

将$\ln x$放缩为$x - 1$得到

成立仅当

得到

本站访客数人次