《数据压缩基础》ppt课件

《数据压缩基础》ppt课件

ID:40055889

大小:537.00 KB

页数:71页

时间:2019-07-18

《数据压缩基础》ppt课件_第1页
《数据压缩基础》ppt课件_第2页
《数据压缩基础》ppt课件_第3页
《数据压缩基础》ppt课件_第4页
《数据压缩基础》ppt课件_第5页
资源描述:

《《数据压缩基础》ppt课件》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、MTIXIDIAN数据压缩基础多媒体技术第四讲1主要内容数据压缩概述经典数据压缩理论香农-范诺与霍夫曼编码算术编码行程编码词典编码预测编码变换编码分析综合编码2什么是数据压缩数据压缩就是在一定的精度损失条件下,以最少的数码表示信源所发出的信号信源编码信道编码信道信道译码信源译码信源信宿3多媒体信源引起了“数据爆炸”如果不进行数据压缩传输和存储都难以实用化。多媒体数据数据压缩的必要性4分钟数字音频信号需要的存储空间15分钟数字视频信号需要的存储空间16时间域压缩──迅速传输媒体信源频率域压缩──并行开通更多业务空间

2、域压缩──降低存储费用能量域压缩──降低发射功率数据压缩的好处7压缩比要大恢复后的失真小压缩算法要简单、速度快压缩能否用硬件实现数据压缩技术实现的衡量标准8无损压缩是指使用压缩后的数据进行重构(或者叫做还原,解压缩),重构后的数据与原来的数据完全相同;无损压缩用于要求重构的信号与原始信号完全一致的场合。有损压缩是指使用压缩后的数据进行重构,重构后的数据与原来的数据有所不同,但不影响人对原始资料表达的信息造成误解。有损压缩适用于重构信号不一定非要和原始信号完全相同的场合。数据压缩技术的分类9经典数据压缩理论信息论中

3、的信源编码理论解决的主要问题:(1)数据压缩的理论极限(2)数据压缩的基本途径10信源信源被抽象为一个随机变量序列(随机过程)。如果信源输出的随机变量取值于某一连续区间,就叫做连续信源。比如语音信号X(t)。如果信源输出的随机变量取值于某一离散符号集合,就叫做离散信源。比如平面图像X(x,y)和电报。信源X1,X2,X3,X4……11离散信源如果随机序列中各个变量独立具有相同的概率分布,则称为简单离散信源。如果离散平稳信源的输出序列中各个变量是相互独立的,即前一个符号的出现不影响以后任何一个符号出现的概率,则称为

4、离散无记忆平稳信源,否则称为离散有记忆平稳信源。信源X1,X2,X3,X4……{a1,a2,a3,…am}12离散事件的非平均互信息量y事件的发生对判断x事件所带来的信息量取决于x的先验概率p(x)与y发生后x的后验概率p(x

5、y)之比。非平均互信息量I(x;y)互信息量的性质:13离散事件的非平均自信息量为了完全确定事件x(使后验概率为1)所必须提供的信息量称为x事件的非平均自信息量I(x)非平均自信息量是随机事件的一个固有特性,它表明了事件的先验不确定性大小14联合自信息量与条件自信息量条件自信息量I(x

6、y

7、):y确定时x所保留的不确定性大小:联合自信息量I(xy):15一些结论I(x)I(y)I(x;y)I(xy)16熵(Entropy)事件集合(样本空间)X中每个事件的自信息量I(x)是定义在这个样本空间上的一个随机变量,所以我们要研究它的统计特性。其数学期望为:H(X)表明了集合X中随机事件的平均不确定性,或者说平均信息量。称H(X)为一阶信息熵或者简称为熵(Entropy)17熵(Entropy)在符号出现之前,熵表示符号集中的符号出现的平均不确定性;在符号出现之后,熵代表接收一个符号所获得的平均信息量。根据

8、直觉,信源编码的数据输出速率(平均码长)与信源熵之间应该有某种对应关系。18信源的概率分布与熵的关系熵的大小与信源的概率分布模型有着密切的关系。最大离散熵定理:当与信源对应的字符集中的各个字符为等概率分布时,熵具有极大值log2m。m为字符集中字符个数。19二进制信源的熵二进制信源输出一个二进制数码所携带的平均信息量最大为1bit。pH10.50120最大离散熵定理的应用对于同一个信源其总的信息量是不变的,如果能够通过某种变换(编码),使信源尽量等概率分布,则每个输出符号所独立携带的信息量增大,那么传送相同信息量

9、所需要的序列长度就越短。离散无记忆信源的冗余度隐含在信源符号的非等概率分布之中。只要H(X)小于log2m,就存在数据压缩的可能。21编码信源{X1,X2,…,XL}{a1,a2,a3,…aK}编码器{Y1,Y2,…,YN}{b1,b2,b3,…bD}{0,1}信源字母表码元表消息分组码字22平均码长与熵如果采用单字符二进制编码方式,设字符aj的编码长度为Lj,则信源字母表的平均码长为:根据前面对二进制信源的分析,有:在Lj=-log2pj时,平均码长取得极小值H(X)23关于离散无记忆平稳信源的结论一阶熵即为离

10、散无记忆平稳信源的压缩极限。(基本极限)只要信源不是等概率分布,就存在着数据压缩的可能性。数据压缩的基本途径之一:使各字符的编码长度尽量等于字符的信息量。24联合熵与条件熵设随机变量X和Y分别取值于符号表{a1,a2,…am}和{b1,b2,b3,…bn}定义X与Y的联合熵为:定义X关于Y的条件熵为:25离散有记忆信源的冗余联合熵与其可能达到的最大值之间的差值反映了该有记

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。