2023-02-23 16:07:21
浏览数 (1)
本专栏包含信息论与编码的核心知识,按知识点组织,可作为教学或学习的参考。markdown版本已归档至【Github仓库:information-theory】,需要的朋友们自取。
文章目录
联合熵
联合集 XY 上, 对联合自信息
的平均值称为联合熵:
当有n个随机变量
, 有
信息熵与热熵的关系
信息熵的概念是借助于热熵的概念而产生的。
- 信息熵与热熵含义相似
- 信息熵与热熵的区别:
- 热熵的减少等于信息熵的增加。
条件熵
联合集 X Y mathbf{X Y}XY 上, 条件自信息I ( y / x ) I(y / x)I(y/x)的平均值定义为条件熵:
推广:
注意:当有n个随机变量
。
注意:
表示已知变量
后, 对变量
尚存在的平均不确定性(存在疑义)。
已知信源
和
,请快速两个信源的信息熵的关系。
答:H(X) > H(Y)。其实不用计算,由上面可知一个简单的结论,等概率时信息熵最大。
参考文献:
- Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
- Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
- 周炯槃. 通信原理(第3版)[M]. 北京:北京邮电大学出版社, 2008.
- 樊昌信, 曹丽娜. 通信原理(第7版) [M]. 北京:国防工业出版社, 2012.