图像编码(一)

图像编码(一)

ID:65451801

大小:387.50 KB

页数:45页

时间:2022-01-09

图像编码(一)_第1页
图像编码(一)_第2页
图像编码(一)_第3页
图像编码(一)_第4页
图像编码(一)_第5页
图像编码(一)_第6页
图像编码(一)_第7页
图像编码(一)_第8页
图像编码(一)_第9页
图像编码(一)_第10页
资源描述:

《图像编码(一)》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库

1、图象压缩与编码要点:信息量,熵,联合熵,率失真函数编码效率,冗余度,压缩比无失真编码,有失真编码霍夫曼编码行程编码预测编码DCT编码混合编码图象压缩与编码数字图象通常要求很大的比特数,这给图象的传输和存储带来相当大的困难。要占用很多的资源,花很高的费用。如一幅512x512的黑白图象的比特数为512x512x8=2,097,152bit=256k。再如一部90分钟的彩色电影,每秒放映24帧。把它数字化,每帧512x512象素,每象素的R、G、B三分量分别占8bit,总比特数为图象压缩与编码90x60x24x3x512x512x8bit=97,200M。如一张CD光盘可存600兆字节数据

2、,这部电影光图象(还有声音)就需要160张CD光盘用来存储。对图象数据进行压缩显得非常必要。本章讨论的问题:在满足一定条件下,能否减小图象bit数,以及用什么样的编码方法使之减少。图象压缩与编码1.图象数据压缩是可能的:一般原始图象中存在很大的冗余度。用户通常允许图象失真。当信道的分辨率不及原始图象的分辨率时,降低输入的原始图象的分辨率对输出图象分辨率影响不大。用户对原始图象的信号不全都感兴趣,可用特征提取和图象识别的方法,丢掉大量无用的信息。提取有用的信息,使必须传输和存储的图象数据大大减少。图象压缩与编码2.原始图象越有规则,各象素之间的相关性越强,它可能压缩的数据就越多。值得指出

3、的是:当前采用的编码方法得到的结果,离可能压缩的极限还相差很远,这说明图象数据压缩的潜力是很大的,直到目前为止,它还是个正在继续研究的领域。图象压缩与编码3.图象结构的性质,大体上可分为两大类,一类是具有一定图形特征的结构,另一类是具有一定概率统计特性的结构。基于不同的图象结构特性,应采用不同的压缩编码方法。图象压缩与编码4.全面评价一种编码方法的优劣,除了看它的编码效率、实时性和失真度以外,还要看它的设备复杂程度,是否经济与实用。常采用混合编码的方案,以求在性能和经济上取得折衷。随着计算方法及VLSI的发展,使许多高效而又比较复杂的编码方法在工程上有实现的可能。信源编码的基本概念图象

4、数据压缩的目的是在满足一定图象质量条件下,用尽可能少的比特数来表示原始图象,以提高图象传输的效率和减少图象存储的容量,在信息论中称为信源编码。信源编码可分为两大类,一类是无失真编码,另一类是有失真编码或称限失真编码。无失真编码无失真编码又称信息保持编码或可逆的无误差编码。信息量:从N个相等可能发生的事件中,选出其中一个事件所需的信息度量,称为信息量。要辨识1到32中选定的某一个数,可先提问:“是否大于16?”,得到回答就消去半数可能事件。每提问一次得到回答,可以得到1bit信息量(二进制位)。这里共需5次,因此所需的信息量为。信息量:从N个数选定一个数s的概率为p(s),且等概率,p(

5、s)=1/N。熵:设信源符号表为s={s1,s2,…,sq},其概率分布为P(s)={p(s1),p(s2),…,p(sq)},则信源的熵为s作为灰度,共q级,出现概率均等时,p(si)=1/q,当灰度只有两级时,即si=0,1,且0出现概率为p1,1出现概率为p2=1-p1,其熵当p1=1/2,p2=1-p1=1/2时,H(s)=1为最大值。如图所示。熵的性质:(1)熵是一个非负数,即总有H(s)≥0。(2)当其中一个符号sj的出现概率p(sj)=1时,其余符号si(i≠j)的出现概率p(si)=0,H(s)=0。(3)当各个si出现的概率相同时,则最大平均信息量为log2q。(4)

6、熵值总有H(s)≤log2q。(一)无失真编码定理可以证明,在无干扰的条件下,存在一种无失真的编码方法,使编码的平均长度L与信源的熵H(s)任意地接近,即L=H(s)+ε,其中ε为任意小的正数,但以H(s)为其下限,即L≥H(s),这就是香农(Shannon)无干扰编码定理。(二)熵与相关性、冗余度的关系对于无失真图象的编码,原始图象数据的压缩存在一个下限,即平均码组长度不能小于原始图象的熵,而理论上的最佳编码的平均码长无限接近原始图象的熵。原始图象冗余度定义为:将编码效率定义为:冗余度接近于0,或编码效率接近于1的编码称为高效码。若原始图象的平均比特率为n,编码后的平均比特率为nd,

7、则压缩比C定义为:由Shannon定理,无失真编码最大可能的数据压缩比为:无失真编码独立信源的熵与马尔可夫信源的熵令q=2L,其中L等于自然二进制码的长度。可以证明,对于独立信源,等概率分布时,具有最大熵HM(s)=L比特,因而冗余度r=L/HM(s)-1=0,不可能压缩。讨论(1)独立信源,又称无记忆信源,符号si的出现,与其他的符号无关。非等概率分布时的熵,一般有H1(s)0,还有可能压缩

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。