Entropy and Channel Capacity

Elements of Information Theory(Introduction: Entropy and Capacity of Channel)

Entropy刻画了编码随机事件所需要的最小期望编码长度

条件概率构成条件熵

定义互信息,表明了给定先验对随机变量不确定度的缩减

通信系统中,X视为系统的输入,Y是系统输出,它们之间满足条件概率$p(y|x)$,定义信道最大理论容量为

无噪声信道,满足$H(X|Y)=0$,因此Information capacity满足

这意味着一次发送一个bit在接收端可以正确判别输入

给定信道,输入可能是4个事件(1,2,3,4),输出y满足

例如$p(1|1)=p(2|1)=\frac 1 2$,这种情况下

互信息记作

这个互信息如何达到呢?答案是取输入中不会在输出中重合的部分编码,即选择1,3作为系统输入,它们一定不会再输出中重合

对称交叉信道是编码中常见的情况,指的是$p(1|0)=p(0|1)= \rho$

image-20231008115701761

显然

Transmission Capacity为

本站访客数人次