毕业论文:多媒体数据压缩算法研究与实现(定稿)

毕业论文:多媒体数据压缩算法研究与实现(定稿)

ID:44535074

大小:419.57 KB

页数:22页

时间:2019-10-23

毕业论文:多媒体数据压缩算法研究与实现(定稿)_第1页
毕业论文:多媒体数据压缩算法研究与实现(定稿)_第2页
毕业论文:多媒体数据压缩算法研究与实现(定稿)_第3页
毕业论文:多媒体数据压缩算法研究与实现(定稿)_第4页
毕业论文:多媒体数据压缩算法研究与实现(定稿)_第5页
资源描述:

《毕业论文:多媒体数据压缩算法研究与实现(定稿)》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库

1、多媒体数据压缩算法研究与实现摘要:多媒体数据压缩技术是实现实时有效地处理、传输和存储庞人的多媒体数据的关键技术。许多应川领域对多媒体信息的实时压缩提出了更高的要求,快速、高效的压缩算法是解决这一问题的关键。针对多媒体数据在空间、时间、结构、视觉、知识等方甸所产牛的兀余,利用有损压缩和无损压缩等方法,对图像、咅频、视频等多媒体数据进行压缩,以保留尽可能少的有用信息。本文主要是把所V的数据结构和算法设计的知识应用于实践,对目前普遍采用的多媒体数据及其压缩算法加以研究,同时介绍了数据压缩所采用的分类、方法及其标准,并分

2、析何种算法的优缺点,并据此选择设计一种多媒休数据的无损压缩算法。并以实例加以说明。关键词:多媒体;压缩;呛夫曼编码.1•多媒体数据类型1.1文字在现实世界中,文字是人与计算机之间进行信息交换的主要媒体。文字主要包括西文与中文。在计算机中,文字用二进制编码表示,即使用不同的二进制编码来代表不同的文字。1.2音频音频(Audio)指的是20HZ〜20kHz的频率范围,但实际上“音频”常常被作为“音频信号”或“声音”的同义语,是属于听觉类媒体,主要分为波形声音、语音和音乐。1.3视频媒体能够利用视觉传递信息的媒体都是视

3、频媒体。位图图像、矢量图像等都是视频媒体。1.4动画动画是指运动的画而,动画在多媒体中是一种非常有用的信息交换工具。动画之所以成为可能,是因为人类的“视觉暂留”的生理现象。用计算机实现的动画有两种,-•种是帧动画,另一种是造型动画。2.数据压缩基本原理2.1信息、数据和编码数据是用來记录和传送信息,或者说数据是信息的载体。真正有用的不是数据木身,而是数据所携带的信息。数据压缩的理论基础是信息论。数据压缩技术是建立在信息论的基础之上的。数据压缩的理论极限是信息爛。而信息爛有两个基本概念作铺染,这两个慕木概念就是信息

4、、信息量。首先第一个概念“信息”。1.信息信息是用不确定的量度定义的,也就是说信息被假设为由一系列的随机变量所代表,它们往往用随机出现的符号來表示。我们称输出这些符号的源为“信源”。也就是要进行研究与压缩的对象。应该理解这个概念中的“不确定性”、“随机”性、“度量”性,也就是说当你收到一条消息Z前,某一事件处于不确定的状态中,当你收到消息后,去除不确定性,从而获得信息,因此去除不确定性的多少就成为信息的度量。比如:你在考试过后,没收到考试成绩(考试成绩通知为消息)Z前,你不知道你的考试成绩是否及格,那么你就处于一

5、个不确定的状态;当你收到成绩通知(消息)是“及格”,此吋,你就去除了“不及格”(不确定状态,占50%),你得到了消息一一“及格”。一个消息的可能性愈小,其信息含量愈大;反Z,消息的可能性愈大,其信息含量愈小。2.信息量指从N个相等的可能事件中选出一个事件所需要的信息度量和含量。也对以说是辨别N个事件中特定事件所需提问“是”或“否”的最小次数。例如:从64个数(「64的整数)中选定某一个数(采用折半查找算法),提问:“是否大于32?”,则不论冋答是与否,都消去半数的可能事件,如此下去,只要问6次这类问题,就可以从6

6、4个数中选定一个数,则所需的信息量是6(bit)我们现在可以换一种方式定义信息量,也就是信息论屮信息量的定义。设从N中选定任一个数X的概率为P(x),假定任选一个数的概率都相等,即P(x)=l/N,则信息量I(x)可定义为:/(%)=log2N=-log2丄二一log2P(X)N上式可随对数所用“底”的不同而取不同的值,因而其单位也就不同。设底取人于1的整数a,考虑一般物理器件的二态性,通常a取2,相应的信息量单位为比特(bit);当a=e,相应的信息量单位为奈特(Nat);当a=10,相应的信息量巾•位为哈特(

7、Hart);显然,当随机事件X发牛的先验概率P(x)大时,算出的I(x)小,那么这个事件发生的可能性大,不确定性小,事件一旦发牛后提供的信息量也少。必然事件的P(x)等于1,I(x)等于0,所以必然事件的消息报导,不含任何信息最;但是一件人们都没有估计到的事件(P(x)极小),一旦发生后,I(x)大,包含的信息量很大。所以随机事件的先验概率,与事件发牛后所产生的信息量,有密切关系。l(x)称X发生后的自信息量,它也是一个随机变量。现在可以给“嫡”下个定义了。信息量计算的是一个信源的某一个事件(X)的自信息量,而一

8、个信源若由n个随机事件组成,n个随机事件的平均信息量就定义为®(Entropy)o1.信息爛信源X发出的x,j二1,2,……n),共n个随机事件的自信息统计平均,即求数学期望H(x)=E(I(Xjy)=£p(x)I(x)=-^P(xj)logP(劝jTjTH(X)在信息论中称为信源X的“炳”(Entropy),它的含义是信源X发出任意一个随机变量的平均信息量。更详细的说,

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。