多媒体图像编码分类

多媒体图像编码分类

ID:27413444

大小:233.01 KB

页数:35页

时间:2018-12-02

多媒体图像编码分类_第1页
多媒体图像编码分类_第2页
多媒体图像编码分类_第3页
多媒体图像编码分类_第4页
多媒体图像编码分类_第5页
资源描述:

《多媒体图像编码分类》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、多媒体图像编码分类多媒体数据压缩编码PCM量化预测编码DPCM基于频率变换编码子带编码小波变换编码基于统计哈夫曼编码算术编码游程编码RLE国际标准JPEG标准(静态图像)MPEG标准(电视图像)H.261(可视通信)MHEG标准(超媒体)多媒体核心技术:压缩数据压缩起源于40年代由ClaudeShannon首创的信息论,其基本原理即信息究竟能被压缩到多小,至今依然遵循信息论中的一条定理,这条定理借用了热力学中的名词“熵”(Entropy)来表示一条信息中真正需要编码的信息量考虑用0和1组成的二进制数码为含有n个符号的某条信息编码,假设符号Fn在整条信息中重复出现的概率为Pn,则该符号的熵也即表

2、示该符号所需的位数考虑用0和1组成的二进制数码为含有n个符号的某条信息编码,假设符号Fn在整条信息中重复出现的概率为Pn,则该符号的熵也即表示该符号所需的位数位为:En=-log2(Pn)整条信息的熵也即表示整条信息所需的位数为:E=∑En举个例子,对下面这条只出现了abc三个字符的字符串:aabbaccbaa字符串长度为10,字符abc分别出现了532次,则abc在信息中出现的概率分别为0.50.30.2,他们的熵分别为:Ea=-log2(0.5)=1Eb=-log2(0.3)=1.737Ec=-log2(0.2)=2.322整条信息的熵也即表达整个字符串需要的位数为:E=Ea*5+Eb*3

3、+Ec*2=14.855位 如果用计算机中的ASCII编码,表示上面的字符串需要整整80位呢!简单地讲,用较少的位数表示较频繁出现的符号,这就是数据压缩的基本准则。无损数据压缩概念方式:无损,有损无损(losslesscompression,redundancyreduction)压缩后的数据能够完全恢复,如磁盘上的数据文件,压缩后是原来的1/2—1/4算法有:Huffman,RLE,算术编码,词典编码有损:lossy,不可逆压缩。声音、图像中的变换编码,例如,DM,APCM,DPCM(图3-14)由于存在量化器4.1Shannon的信息论与数据压缩1.1948年Shannon香农创立的信息

4、论:数据压缩理论极限。数据压缩的技术途径。压缩原理:信源中信息分布不均匀;信源中信息含有冗余(相关性)举例26个字母和一个分隔符,共27个字符组成的英文文件,看成信源,该信源的极限(根据字符出现的频率不同):H(x)=1.4bit/字符原因:27个字符编码,5bits分布不均匀:如a,b,c的出现频率比x,y,z高信源相关系:er,ture,ed,ing等2.信息熵entropy问题:随机变量的一个取值a,携带的信息量是多少?相关概念:消息:数据、电报、电话。信息:对消息加工,有特定价值一个信息带有一定的信息量,大小不等例子一个消息:某试验成功试验人员预计成功的可能性99%:信息量很小试验人员

5、预计成功的可能性1%:信息量很大3.信息量:在收到信息以前,处于某种不确定状态中,收到信息之后,消除或部分消除了此不确定性。消除不确定性多少,就可以作为信息的度量。4.Shannon用概率说明这一概念事件出现的概率小,相当于不确定性多,反之,则少。Pi为事件ai发生的概率,则ai出现后的自信息量为I(ai)=-logpi5.信息熵(Entropy)表示每出现一个字符所给出的平均信息量。“底”不同而值不同,因而单位也就不同当取底为r的整数时,则熵的信息单位称作r进制信息单位r=2,单位为bit(比特)r=e,单位为Nat(奈特)r=10,单位为Hart(哈特)log不特别说明时,取为26.信息熵

6、的理解:处于事件发生之前,根据先验概率Pj,就有不同的确定性存在,I(ai)与H(x)都是不确定性度量。当处于事件发生之时,是一种惊奇性的度量但出于事件发生之后,不确定性已被解除,则是获得信息的度量可以认为是事件随机性的度量,因其仅仅对概率Pj取另个坐标而已。7.H(x)就是对离散信源进行无失真编码时的码长极限。8.举例信源取4个符号a1,a2,a3,a4,概率1/2,1/4,1/8,1/8信源的熵H(x)=…=1.75bit/字符若用编码(0,10,110,111),则平均码长=…=1.75考虑以下几种变长编码:码B唯一可译例1:例4.1例2:8个字符具有等可能性例3:字符的分布已知:P=(

7、0.9,0.02,0.02,0.02,0.01,0.01,0.01,0.01)H(p)=0.74bit/字符信源字母概率码A码B码Ca11/2000a21/411010a31/811110101a41/8111111111练习信源X中有16个随机事件,即n=16。每一个随机事件的概率都相等,即P(x1)=P(x2)=P(x3)=…=P(x16)=1/16,计算信源X的熵。9.Huffman编码H(

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。