信息论与编码英文课件 编码

信息论与编码英文课件 编码

ID:37734936

大小:201.50 KB

页数:5页

时间:2019-05-29

信息论与编码英文课件 编码_第1页
信息论与编码英文课件 编码_第2页
信息论与编码英文课件 编码_第3页
信息论与编码英文课件 编码_第4页
信息论与编码英文课件 编码_第5页
资源描述:

《信息论与编码英文课件 编码》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、例:4符号信源,出现的概率分别为0.5,0.25,0.125和0.125,其熵为=1.75比特/符号当4个符号出现概率等概时(0.25),可以算出信源熵为2比特/符号。u当信源各符号出现概率相等时,信源具有最大熵。u熵的范围为:u在编码中用熵值衡量是否为最佳编码。若以表示编码器输出码字的平均码长,则当>>:有冗余,不是最佳编码;<:不可能;:最佳编码(稍大于)。r无损编码定理离散信源X无损编码所能达到的最小速率不能低于该信源的信源熵,即:r信源编码定理(有损编码定理)u对于给定的信源,在允许一定的失真D情况

2、下,存在一失真率函数R(D),当编码速率R不低于R(D)时,编码失真能够不大于D。uR(D)一般不容易计算。u该定理也没有给出编码方法。图4-1率失真示意图2.定长编码r定长编码对每个符号使用等长码字编码,而不考虑其概率。例:5电平量化器,代表5个量化电平,u若用000,001,010,011和100表示,3比特/每个信源符号。u设它们出现概率相同,那么信源熵为:2.32比特/每个信源符号u如果每3个信源符号合成一组进行编码,那么共有125种组合符号,可以用7bit编码,平均每个信源符号用2.33比特/每个

3、信源符号。r随着分组长度加长,平均每信源符号所需编码比特数将趋向信源熵,编码复杂度和延时也增加。3.霍夫曼编码r变字长编码的最佳编码定理:在变字长码中,对于概率大的信息符号编以短字长的码;对于概率小的信息符号编以长字长的码。如果码字长度严格按照符号概率的大小的相反顺序排列,则平均码字长度一定小于按任何其他符号顺序排列方式得到的码字长度。证明:设最佳排列方式的码字平均长度为,则有式中为信源符号出现的概率,是的编码长度。规定,,,。如果将的码字与的码字互换,其余码字不变,其平均码字长度变为,即因为,,所以,也就

4、是说是最短的。霍夫曼编码就是利用了这个定理,将等长分组的信源符号,根据其概率采用不等长编码。概率大的分组,使用短的码字编码;概率小的分组,使用长的码字编码。霍夫曼编码把信源符号按概率大小顺序排列,并设法按逆次序分配码字的长度。在分配码字的长度时,首先将出现概率最小的的两个符号的概率相加,合成一个概率;第二步把这个合成的概率看成是一个新组合符号的概率,重复上述做法,直到最后只剩下两个符号的概率为止。完成以上概率相加顺序排列后,再反过来逐步向前进行编码。每一步有两个分支,各赋予一个二进制码,可以对概率大的编为0

5、码,概率小的编为1码。反之亦然。霍夫曼编码的具体步骤归纳如下:(1)统计概率,得n个不同概率的信息符号。(2)将n个信源信息符号的n个概率,按概率大小排序。(3)将n个概率中,最后两个小概率相加,这时概率个数减为n-1个。(4)将n-1个概率,按大小重新排序。(5)重复(3),将排序后的最后两个小概率再相加,相加和与其余概率再排序。(6)如此反复重复n-2次,最后只剩两个概率。(7)分配码字。由最后一步开始反向进行,依次对“最后”两个概率一个赋予“0”码,一个赋予“1”码。构成霍夫曼编码字。编码结束。u霍夫

6、曼编码产生最佳整数前缀码,即没有一个码字是另一个码字的前缀,可以唯一译码。下面用一个例子说明霍夫曼编码过程。例:5个符号的信源,出现的概率分别为0.4,0.25,0.15,0.15和0.05,设解码器收到11100011010时,可唯一译码成。可算出平均编码长度为2.15比特。信源熵为2.07比特。

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。