第3讲多媒体数据压缩的基本技术(1).ppt

第3讲多媒体数据压缩的基本技术(1).ppt

ID:48744160

大小:727.50 KB

页数:72页

时间:2020-01-21

第3讲多媒体数据压缩的基本技术(1).ppt_第1页
第3讲多媒体数据压缩的基本技术(1).ppt_第2页
第3讲多媒体数据压缩的基本技术(1).ppt_第3页
第3讲多媒体数据压缩的基本技术(1).ppt_第4页
第3讲多媒体数据压缩的基本技术(1).ppt_第5页
资源描述:

《第3讲多媒体数据压缩的基本技术(1).ppt》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库

1、第三讲多媒体数据压缩的基本技术(1)Outline多媒体数据压缩的理论依据量化标量量化矢量量化预测编码差分脉冲编码调制(DPCM)自适应差分脉码调制(ADPCM)压缩的必要性类型带宽KHZ采样率KHZ比特/样点比特率kb/s电话语音0.2~3.481296宽带语音0.05~71614224调频广播0.02~153216512CD光盘0.01~2044.116705.6DAB/DAT0.01~204816768AUDIO类型格式分辨率帧频HZ比特/像素比特率Mb/s电视电话QCIF176×14429.97129.1会议电视CIF352×28829.971236.4常规

2、电视ITU-R601720×5762516165.9HDTVITU-R7091920×11522516884.7VIDEO数据压缩可分为两类:无损压缩有损压缩无损压缩是指压缩后的数据进行重构(还原,解压缩),重构后的数据与原来的数据完全相同。有损压缩是指压缩后的数据进行重构,重构的数据与原来的数据有所不同,但不影响人对原始资料表达信息的理解。多媒体数据压缩的理论依据信息论现在科学领域中的一个重要分支Shannon所创立的信息论对数据压缩有极为重要的指导意义给出了数据压缩的理论极限指明了数据压缩的技术途径为通信技术的发展奠定了理论基础两个基本概念:熵和信源熵Entro

3、py(熵)的概念:(1)熵是信息量的度量方法,它表示某一事件出现的消息越多,事件发生的可能性就越小,数学上就是概率越小。(2)某个事件的信息量用Ii=-log2Pi表示,其中Pi为第i个事件的概率信源熵的定义其中Pi是符号Si在S中出现的概率,表示包含在Si的信息量,也就是编码Si所需要的位数例如,一幅用256级灰度表示的图像,如果每一个象素点灰度的概率均为Pi=1/256,编码每一个象素点就需要8位。无损编码定理离散信源X无损编码所能达到的最小速率不能低于该信源的信源熵,即:信源编码定理 (有损编码定理)对于给定的信源,在允许一定的失真D情况下,存在一率失真函数R

4、(D),当编码速率R不低于R(D)时,编码失真能够不大于D。◇R(D)一般不容易计算◇该定理没有给出编码方法熵编码(保熵编码、无损压缩)定长编码香农-范诺(Shannon-Fano)编码霍夫曼编码算术编码Ziv-Lempel编码(70年代末J.Ziv和A.Lempel)行程编码(RunLengthEncoding,RLE)举例说明:有一幅40个象素组成的灰度图像,灰度共有5级,分别用符号A、B、C、D和E表示,40个象素中出现灰度A的象素数有15个,出现灰度B的象素数有7个,出现灰度C的象素数有7个等等,如右边所示。如果用3个位表示5个等级的灰度值(定长编码),也就

5、是每个象素用3位表示,编码这幅图像总共需要120位。符号出现的次数ABCDE157765就是说每个符号用2.196位表示,40个象素需用87.84位按照信息论理论,这幅图像的熵为:香农-范诺(Shannon-Fano)编码按照符号出现的频度或概率排序,然后使用递归方法分成两个部分,每一部分具有近似相同的次数。Shannon(1948年)和Fano(1949年)最早阐述和实现这种编码,因此被称为香农-范诺(Shannon-Fano)算法。这种方法采用从上到下的方法进行编码。香农-范诺编码举例符号出现次数(pi)log2(1/pi)分配的代码需要的位数A15(0.375

6、)1.41500030B7(0.175)2.51450114C7(0.175)2.51451014D6(0.150)2.736911018E5(0.125)3.000011115上例按照香农-范诺算法的编码结果编码后的位数=30+14+14+18+15=91(位)霍夫曼编码霍夫曼(Huffman)在1952年提出了一种编码方法,是从下到上的编码方法。基本思想是:对于出现概率较大的符号取较短的码长,而对概率较小的符号取较长的码长。是一种变长码,霍夫曼码通常被称为最优码仍以上一个例子说明它的编码步骤:1.初始化,根据符号概率的大小按由大到小顺序对符号进行排序2.把概率最

7、小的两个符号组成一个节点,D和E组成节点P13.重复步骤2,得到节点P2、P3和P4,形成一棵“树”,其中的P4称为根节点4.从根节点P4开始到相应于每个符号的“树叶”,从上到下标上“0”(上枝)或者“1”(下枝),至于哪个为“1”哪个为“0”则无关紧要,最后的结果仅仅是分配的代码不同,而代码的平均长度是相同的。5.从根节点P4开始顺着树枝到每个叶子分别写出每个符号的代码B(0.175)C(0.175)A(0.375)D(0.150)E(0.125)11110000P1P2P3P4上例按照霍夫曼编码的结果(总共90位)符号出现次数(pi)log2(1/pi)分配

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。