声振论坛

 找回密码
 我要加入

QQ登录

只需一步,快速开始

查看: 1179|回复: 2

[综合] 关于互信息和自信息

[复制链接]
发表于 2009-7-15 20:02 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?我要加入

x
I(x,y)
I(x|y)
I(x)
的不同点我总是弄不清楚,可否有高人指点下。

另外它们的关系式I(x,y)=I(x)-I(x|y),可否从物理意义上解释下?


非常感谢高人指导
回复
分享到:

使用道具 举报

发表于 2009-7-15 20:36 | 显示全部楼层

回复 楼主 chk 的帖子

信号论与编码 曹雪虹  清华大学出版社
28页的 图2-10是解释的互信息量与熵之间的关系
这个图是理解这些基本概念很重要的工具!!
I(x)从定义上说是 一个符号具有的不确定度
I(x|y) 则是符号y在出现的条件下 x发生的不确定度
I(x,y)=I(x|y) +I(y)即 xy同时发生的不确定度
 楼主| 发表于 2009-7-16 08:53 | 显示全部楼层

非常非常感谢

你这样一说我就理解咧。。。。哈哈   很是感谢啊。:handshake
您需要登录后才可以回帖 登录 | 我要加入

本版积分规则

QQ|小黑屋|Archiver|手机版|联系我们|声振论坛

GMT+8, 2024-11-18 18:35 , Processed in 0.054361 second(s), 17 queries , Gzip On.

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表