图象数据结构与数据压缩

图象数据结构与数据压缩

ID:45987228

大小:391.84 KB

页数:31页

时间:2019-11-20

图象数据结构与数据压缩_第1页
图象数据结构与数据压缩_第2页
图象数据结构与数据压缩_第3页
图象数据结构与数据压缩_第4页
图象数据结构与数据压缩_第5页
资源描述:

《图象数据结构与数据压缩》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、第七章图象数据结构与数据压缩7.1概述1、图象数据压缩是为了检索、存储、传输的需要。图象经常用到搜索(查找分区、判别边界都要搜索)如何搜索算法。为了提高搜索速度涉及两个问题:存贮分式及存贮结构(图象的数据结构)。存贮方式有两大类:一类为文件管理系统下数据结构,即作为标准的数据文件;另一类为在系统的外部卷,即作为系统驱动程序下直接读写,其卷结构由设计者自己规定,这种结构有两个好处:一是空间节省(可更充分利用存贮介质),二是读写速度快(由于节省了文件结构的一些辅助空间及省去了一些不必要的检查手续)。文件结构:提供一种能快速搜索到所需数据文件组织方式。--逐点查找--先粗后细查找方式:*

2、四叉树(地图逐级放大,世界--国--省--县)*二叉树2.图象一大特点是数据量大,为其存贮、传输带来困难,需压缩。例:电话线传输速率一般为56Kbits/s(波特率)一幅彩色图像512×512×24bit=6Mbits大小。传一幅图象需2分钟左右。实时传送更难:512×512×24bits×25帧/秒=150Mbits/S如压缩20倍,传一幅图6秒左右,可以接受,实用。实时,要专用信道(卫星、微波网、专线网等技术)。另外,大量资料需存贮遥感、故宫、医学CT、MR。[从统计观点出发,简单直观地讲,就是某一象素的灰度值,总是和周围其他象素灰度值有某种关系,应用某种编码方法提取并减少这些

3、相关特性,便可实现图象信息的数据压缩。图象数据压缩的目的可以是节省图象存贮器容量,也可以是减少传输信道容量,还可以是为了缩短图象加工处理的时间。](1)压缩方法:按时间分:静图:静止图象(要求质量高)动图:活动的序列图象(相对质量要求低,压缩倍数要高)压缩比=未压缩的图象的存贮字节数/压缩后图象存贮字节数失真与否分:无失真压缩:经压缩后再恢复图象与原图象无任何区别,一般压缩倍数<2有限失真压缩:单帧(静)4~20倍。图象序列(x、y、t)50~200倍(2)压缩失真度衡量标准:a.客观:输出与输入之差:e(x,y)=g(x,y)-f(x,y)整图:均方差:量纲:灰度级。亦也将输出与

4、输入之差看作噪声。输出图象均方信噪比定义为:g2(x,y)/e2(x,y)常用:峰值信噪比一般σ<2,或PSNR≥40dB人眼看不出来<30dB的图象不能用~35dB可接受[到目前为上,国际上没有一个通用的评价图象压缩的客观标准]b.主观(人判别)--专家投票的方法,实用方法。人的视觉的主观亮度是光强的对数函数。人眼对黑暗区误差比明亮区更敏感。人眼对灰度突变边缘比较敏感。(3)图象压缩的技术指标:a.保真度--与用途有关,例如侦察与体育比赛关心内容不同b.压缩比:原图象数据量/压缩后数据量或0.3bit/pixelc.误码扩散程度d.实时性--与压缩算法、系统速度有关e.保密

5、性--传输中防止被盗,SPOT是数据需解码(高明压缩方法,压缩后仍是一幅图)数字水印技术--watermarking7.2四叉树与二叉树(金字塔pyramid或Quadtree)适用于N=2n图象四叉树:0层1层2层……n层象素数:4041424n四叉树全部保留,总数据量为:全分辨率图:4n点数,数据量增加1/3,对搜索有好处,找到有关兴趣区域后再提取感应趣的下一层图象。二叉树(能解决余位问题)如右图所示可作二叉树表示其优点是灰度变化平缓一些,且数据量相同,另一优点数据位数不增加,计算方法如下:其f0、f1与g0、g1关系由查表决定若右侧f=0~7,则g亦在0~7范围的灰度为例定义

6、g0、g11与f0、f1关系。由查表关系,f0、f1、g0、g1之间是1-1对应关系,所以不会丢失精度和误差7.3信息有关的基本概念1.信息的度量7月份天气报:“明天下雨”,信息量小10月份天气报:“明天下雪”--概率事件发生,信息量大概率低--信息量大概念高--信息量小怎么定量?戈壁滩一年下雨概率1/128,睛概率127/128。对天气预报的信息量多少引入-log2p代表信息量如:-log21/128=7有雨-log2127/128≈0晴信息具有可加性:一个9×9方阵,一个士兵在某一位置的概率1/81,信息=-log21/81=6.34在特定行上的概率1/9:信息=-log21/

7、9=3.17在特定列上的概率1/9:信息=-log21/9=3.17行、列信息量和:3.17+3.17=6.34引入一个信息度量I(P)特点:0p<1信息量I(P)连续变化P=0,I(P)=P=1,I(P)=0P1>P2,I(P2)>I(P1)I(p•q)=I(p)+I(q)I(P)=-logbp—一般b=22.信息熵(Entropy)预期能得到的平均信息量,I(Pi)的数学期望值。对于M个灰阶:Pii=1,2,….,m例1,当Pi=1/4,i=1,2,

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。