信息论与编码-总复习

信息论与编码-总复习

ID:39115460

大小:1.00 MB

页数:48页

时间:2019-06-25

信息论与编码-总复习_第1页
信息论与编码-总复习_第2页
信息论与编码-总复习_第3页
信息论与编码-总复习_第4页
信息论与编码-总复习_第5页
资源描述:

《信息论与编码-总复习》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、信息定义:信息是该事物运动的状态和状态改变的方式。认识论层次的信息是同时考虑语法信息、语义信息和语用信息的全信息。全信息:同时考虑外在形式/语法信息、内在含义/语义信息、效用价值/语用信息。语法信息:事物运动状态和状态改变的方式;语义信息:事物运动状态和方式的具体含义;语用信息:事物运动状态和方式及其含义对观察者的效用价值。研究信息论的目的:提高信息系统的可靠性、有效性和安全性以便达到系统最优化。第一章概论单符号离散信源自信息量设离散信源X,其概率空间为如果知道事件xi已发生,则该事件所含有的自信息定义为当事件xi发生以前:表示事件xi发生的不确定性。当事件xi发生以后:表示事件x

2、i所含有(或所提供)的信息量第二章信源熵联合自信息量当X和Y相互独立时,p(xiyj)=p(xi)p(yj)第二章信源熵条件自信息量:已知yj的条件下xi仍然存在的不确定度。自信息量、条件自信息量和联合自信息量之间的关系第二章信源熵互信息量:yj对xi的互信息量定义为的后验概率与先验概率比值的对数。第二章信源熵观察者站在输出端:两个不确定度之差是不确定度被消除的部分,即等于自信息量减去条件自信息量。观察者站在输入端:观察者得知输入端发出xi前、后对输出端出现yj的不确定度的差。观察者站在通信系统总体立场上:通信后的互信息量,等于前后不确定度的差。第二章信源熵平均信息量—信源熵:自信

3、息的数学期望。也称为信源的信息熵/信源熵/香农熵/无条件熵/熵函数/熵。信源熵的三种物理含义信源熵H(X)是表示信源输出后每个消息/符号所提供的平均信息量;信源熵H(X)是表示信源输出前,信源的平均不确定性;用信源熵H(X)来表征变量X的随机性。第二章信源熵条件熵:是在联合符号集合XY上的条件自信息的数学期望。第二章信源熵信道疑义度—H(X/Y):表示信宿在收到Y后,信源X仍然存在的不确定度。是通过有噪信道传输后引起的信息量的损失,故也可称为损失熵。噪声熵—H(Y/X):表示在已知X的条件下,对于符号集Y尚存在的不确定性(疑义),这完全是由于信道中噪声引起的。第二章信源熵联合熵H(

4、XY):表示输入随机变量X,经信道传输到达信宿,输出随机变量Y。即收、发双方通信后,整个系统仍然存在的不确定度。第二章信源熵最大离散熵定理(极值性):离散无记忆信源输出n个不同的信息符号,当且仅当各个符号出现概率相等时(即p(xi)=1/n),熵最大。H[p(x1),p(x2),…,p(xn)]≤H(1/n,1/n,…,1/n)=log2n出现任何符号的可能性相等时,不确定性最大。第二章信源熵二进制信源的熵函数H(p)为第二章信源熵平均互信息量定义:互信息量I(xi;yj)在联合概率P(XY)中的统计平均值。1.站在输出端:I(X;Y)—收到Y前、后关于X的不确定度减少的量。从Y获

5、得的关于X的平均信息量。2.站在输入端:I(Y;X)—发出X前、后关于Y的先验不确定度减少的量。3.站在总体:I(X;Y)—通信前、后整个系统不确定度减少量。第二章信源熵BSC信道的平均互信息量设二进制对称信道的输入概率空间为转移概率如图2.1.8所示。第二章信源熵平均互信息量当q不变(固定信道特性)时,可得I(X;Y)随输入概率分布p变化的曲线,如图2.1.9所示;二进制对称信道特性固定后,输入呈等概率分布时,平均而言在接收端可获得最大信息量。第二章信源熵当固定信源特性p时,I(X;Y)就是信道特性q的函数,如图2.1.10所示;当二进制对称信道特性q=/q=1/2时,信道输出端

6、获得信息量最小,即等于0。说明信源的全部信息信息都损失在信道中了。这是一种最差的信道。第二章信源熵离散无记忆信源X的N次扩展信源的熵等于离散信源X的熵的N倍,即H(X)=H(XN)=NH(X)离散平稳信源:各维联合概率均与时间起点无关的完全平稳信源称为离散平稳信源。1.二维离散平稳信源的熵为H(X)=H(X1X2)=H(X1)+H(X2/X1)2.N维离散平稳信源的熵为H(X)=H(X1X2…XN-1XN)=H(X1)+H(X2/X1)+H(X3/X1X2)+…+H(XN/X1X2…XN-1)第二章信源熵平均符号熵:信源平均每发一个符号提供的信息量为离散平稳有记忆信源的极限熵:当N

7、→∞时,平均符号熵取极限值称之为极限熵或极限信息量。用H∞表示,即极限熵的存在性:当离散有记忆信源是平稳信源时,极限熵等于关联长度N→∞时,条件熵H(XN/X1X2…XN-1)的极限值,即极限熵的含义:代表了一般离散平稳有记忆信源平均每发一个符号提供的信息量。第二章信源熵信源熵的相对率η:η=H∞/H0信源冗余度ξ:ξ=1-η=(H0-H∞)/H0信源的冗余度表示信源可压缩的程度。第二章信源熵连续信源的熵为上式定义的熵在形式上和离散信源相似,也满足离散熵的主要特性,如

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。