数字媒体技术导论ppt课件.ppt

数字媒体技术导论ppt课件.ppt

ID:59470513

大小:400.50 KB

页数:61页

时间:2020-09-14

数字媒体技术导论ppt课件.ppt_第1页
数字媒体技术导论ppt课件.ppt_第2页
数字媒体技术导论ppt课件.ppt_第3页
数字媒体技术导论ppt课件.ppt_第4页
数字媒体技术导论ppt课件.ppt_第5页
资源描述:

《数字媒体技术导论ppt课件.ppt》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、数字媒体技术导论第八章数字媒体压缩技术教学目标:(1)了解数字媒体数据压缩的原因。(2)理解数字媒体数据压缩技术的不同分类。(3)掌握通用的数据压缩编码算法。(4)了解各种数字媒体数据压缩的标准。学习内容:8.1数据压缩及分类8.2通用的数据压缩技术8.3数字媒体压缩标准8.1.1压缩的可能性与信息冗余经过数字化处理后的图形、图像、视频和音频等媒体信息的数据量非常大,如果不进行数据压缩,计算机系统就无法对它进行存储、交换和传输。1)数字图像2)数字视频3)数字音频(数据量的计算)8.1数据压缩及分类8.1.1压缩的可能性与信息冗余数据能够被压缩的主要原因在于媒

2、体数据中存在数据的信息冗余。信息量包含在数据之中,一般的数据冗余主要体现在:1)空间冗余2)结构冗余3)时间冗余4)视觉冗余5)知识冗余6)信息熵冗余8.1数据压缩及分类8.1.2数据压缩分类按信息压缩前后比较是否有损失进行划分:无损压缩指使用压缩后的数据进行重构(还原或解压缩),重构后的数据与原来的数据完全相同。常用的无损压缩算法有霍夫曼(Huffman)算法和LZW算法。也称为可逆编码。有损压缩指使用压缩后的数据进行重构,重构后的数据与原来的数据有所不同,但不影响人对原始资料表达的信息造成误解。也称为不可逆编码。按数据压缩编码的原理和方法进行划分:统计编码

3、:主要针对无记忆信源,根据信息码字出现概率的分布特征而进行压缩编码,寻找概率与码字长度间的最优匹配。预测编码:是利用空间中相邻数据的相关性来进行压缩数据的。变换编码:是将图像时域信号转换为频域信号进行处理。分析–合成编码:是指通过对源数据的分析,将其分解成一系列更适合于表示的“基元”或从中提取若干更为本质意义的参数,编码仅对这些基本单元或特征参数进行。无记忆信源【无记忆信源】(1)存在一个或多个基本符号集;(2)将多个基本符号集做笛卡儿积,形成一定长度的联合概率空间;(3)运用外力的功(电动势)将单个符号或一定长度的符号序列从随机事件转化成必然事件,或者说,将

4、一个随机系统转化成一个必然系统;并且回退到原始空间中来,该原始空间的概率分布不因为事件的发生而改变。【有记忆信源】(1)存在一个或多个基本符号集;(2)将多个基本符号集做笛卡儿积,形成一定长度的联合概率空间;(3)运用外力的功(电动势)将单个符号或一定长度的符号序列从随机事件转化成必然事件,或者说,将一个随机系统转化成一个必然系统;不能回退到原始空间中来,即原始空间的概率分布因为事件的发生而改变。按照媒体的类型进行压缩划分:图像压缩标准:JPEG等声音压缩标准:MP3运动图像压缩标准:MPEG、H.26x系列、AVS目录8.2通用的数据压缩技术行程编码字典编码

5、熵编码等PCMDMDPCM通用的压缩方法具有压缩比低、通用性强等特点无损压缩技术有损压缩技术目录8.2.1编码的理论基础数据压缩技术的理论基础是信息论。根据信息论的原理,可以找到最佳数据压缩编码方法,数据压缩的理论极限是信息熵。熵是信息量的度量方法,它表示某一事件出现的消息越多,事件发生的可能性就越小,数学上就是概率越小。信息与信息量信息量是指信源中某种事件的信息度量或含量。一个事件出现的可能性愈小,其信息量愈多,反之亦然。若pi为第i个事件的概率为0≤pi≤1,则该事件的信息量为一个信源包括的所有数据叫数据量,而数据量中包含有冗余信息。信息量=数据量-冗余量

6、信息熵信息熵就是将信源所有可能事件的信息量的平均。设从N个数中选定任一个数xj的概率为p(xj),假定选定任意一个数的概率都相等,即p(xj)=1/N,则I(xj)=log2N=-log21/N=-log2p(xj)=I[p(xj)]上式中,p(xj)是信源X发出xj的概率。I(xj)的含义是信源X发出xj这个消息(随机事件)后,接收端收到信息量的量度。信息熵(续)信源X发出的xj(j=1,2,…,n)共n个随机事件的信息量的统计平均,即H(X)=E{I(xj)}=H(X)称为信源X的“熵”,即信源X发出任意一个随机变量的平均信息量。其中,等概率事件的熵最大,

7、假设有N个事件,此时熵为:H(X)==信息熵(续)当P(x1)=1时,P(x2)=P(x3)=…=P(xj)=0,此时熵为H(X)=-P(x1)=0由上可得熵的范围为:0≤H(X)≤信息熵(续)在编码中用熵值来衡量是否为最佳编码。若以Lc表示编码器输出码字的平均码长,其计算公式为:Lc=(j=1,2,…,n)其中:P(xj)是信源X发出xj的概率,L(xj)为xj的编码长。信息熵(续)平均码长与信息熵之间的关系为:Lc≥H(X)有冗余,不是最佳。Lc<H(X)不可能。Lc=H(X)最佳编码(Lc稍大于H(X))熵值为平均码长Lc的下限。8.2.2霍夫曼编码霍夫

8、曼编码(Huffman)是运用信息熵原

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。