信息论与编码复习new

信息论与编码复习new

ID:18847389

大小:165.50 KB

页数:4页

时间:2018-09-24

信息论与编码复习new_第1页
信息论与编码复习new_第2页
信息论与编码复习new_第3页
信息论与编码复习new_第4页
资源描述:

《信息论与编码复习new》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、填空1.人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。2.信息的可度量性是建立信息论的基础。3.统计度量是信息度量最常用的方法。4.熵是香农信息论最基本最重要的概念。5.事物的不确定度是用时间统计发生概率的对数来描述的。6.单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。7.一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。8.自信息量的单位一般有比特、奈特和哈特。9.必然事件的自信息是0。10.不可能事件的自信息量是∞。11.两个相互

2、独立的随机变量的联合自信息量等于两个自信息量之和。12.数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。13.离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的N倍。14.离散平稳有记忆信源的极限熵,。15.对于n元m阶马尔可夫信源,其状态空间共有nm个不同的状态。16.一维连续随即变量X在[a,b]区间内均匀分布时,其信源熵为log2(b-a)。17.平均功率为P的高斯分布的连续信源,其信源熵,Hc(X)=。18.对于限峰值功率的N维连续信源,当概

3、率密度均匀分布时连续信源熵具有最大值。19.对于限平均功率的一维连续信源,当概率密度高斯分布时,信源熵有最大值。20.若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为3。21.若把掷骰子的结果作为一离散信源,则其信源熵为log26。22.同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是log218(1+2log23)。23.根据输入输出信号的特点,可将信道分成离散信道、连续信道、半离散或半连续信道。24.信道的输出仅与信道当前输

4、入有关,而与过去输入无关的信道称为无记忆信道。25.具有一一对应关系的无噪信道的信道容量C=log2n。26.强对称信道的信道容量C=log2n-Hni。27.对称信道的信道容量C=log2m-Hmi。28.对于离散无记忆信道和信源的N次扩展,其信道容量CN=NC。29.对于N个对立并联信道,其信道容量CN=。30.当信道的噪声对输入的干扰作用表现为噪声和输入的线性叠加时,此信道称为加性连续信道。31.高斯加性信道的信道容量C=。32.信道编码定理是一个理想编码的存在性定理,即:信道无失真传递信息的条件是信息率小

5、于信道容量。33.高斯加性噪声信道中,信道带宽3kHz,信噪比为7,则该信道的最大信息传输速率Ct=9kHz。34.对于具有归并性能的无燥信道,达到信道容量的条件是p(yj)=1/m)。35.信息率失真理论是量化、数模转换、频带压缩和数据压缩的理论基础。36.求解率失真函数的问题,即:在给定失真度的情况下,求信息率的极小值。37.信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越大,获得的信息量就越小。38.单符号的失真度或失真函数d(xi,yj)表示信源发出一个符号xi,信宿再现y

6、j所引起的误差或失真。39.汉明失真函数d(xi,yj)=。40.平均失真度定义为失真函数的数学期望,即d(xi,yj)在X和Y的联合概率空间P(XY)中的统计平均值。41.如果信源和失真度一定,则平均失真度是信道统计特性的函数。42.如果规定平均失真度不能超过某一限定的值D,即:。我们把称为保真度准则。43.离散无记忆N次扩展信源通过离散无记忆N次扩展信道的平均失真度是单符号信源通过单符号信道的平均失真度的N倍。44.试验信道的集合用PD来表示,则PD=。45.信息率失真函数,简称为率失真函数,即:试验信道中的

7、平均互信息量的最小值。46.平均失真度的下限取0的条件是失真矩阵的每一行至少有一个零元素。47.率失真函数对允许的平均失真度是单调递减和连续的。48.对于离散无记忆信源的率失真函数的最大值是log2n。49.当失真度大于平均失真度的上限时Dmax时,率失真函数R(D)=0。50.保真度准则下的信源编码定理的条件是信源的信息率R大于率失真函数R(D)。1.某二元信源其失真矩阵D=,则该信源的Dmin=0。2.按照不同的编码目的,编码可以分为三类:分别是信源编码、信道编码和安全编码。3.信源编码的目的是:提高通信的有

8、效性。4.一般情况下,信源编码可以分为离散信源编码、连续信源编码和相关信源编码。5.连续信源或模拟信号的信源编码的理论基础是限失真信源编码定理。6.在香农编码中,第i个码字的长度ki和p(xi)之间有关系。7.对信源进行二进制费诺编码,其编码效率为1。8.对具有8个消息的单符号离散无记忆信源进行4进制哈夫曼编码时,为使平均码长最短,应增加2个概率为0的消息。9.对于香农编

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。