本专栏包含信息论与编码的核心知识,按知识点组织,可作为教学或学习的参考。markdown版本已归档至【Github仓库:information-theory】,需要的朋友们自取。
联合集 XY 上, 对联合自信息
的平均值称为联合熵:
当有n个随机变量
, 有
信息熵与热熵的关系
信息熵的概念是借助于热熵的概念而产生的。
联合集 X Y \mathbf{X Y}XY 上, 条件自信息I ( y / x ) I(y / x)I(y/x)的平均值定义为条件熵:
推广:
注意:当有n个随机变量
。
注意:
表示已知变量
后, 对变量
尚存在的平均不确定性(存在疑义)。
已知信源
和
,请快速两个信源的信息熵的关系。 答:H(X) > H(Y)。其实不用计算,由上面可知一个简单的结论,等概率时信息熵最大。
参考文献: