信息论与编码试卷及答案.doc

信息论与编码试卷及答案.doc

ID:49439024

大小:1.53 MB

页数:17页

时间:2020-03-01

信息论与编码试卷及答案.doc_第1页
信息论与编码试卷及答案.doc_第2页
信息论与编码试卷及答案.doc_第3页
信息论与编码试卷及答案.doc_第4页
信息论与编码试卷及答案.doc_第5页
资源描述:

《信息论与编码试卷及答案.doc》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库

1、一、概念简答题(每题5分,共40分)1.什么是平均自信息量与平均互信息,比较一下这两个概念的异同?2.简述最大离散熵定理。对于一个有m个符号的离散信源,其最大熵是多少?3.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系?4.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。5.写出香农公式,并说明其物理意义。当信道带宽为5000Hz,信噪比为30dB时求信道容量。6.解释无失真变长信源编码定理。7.解释有噪信道编码定理。 8.什么是保真度准则?对二元信源,其失真矩阵,求a>0

2、时率失真函数的和?二、综合题(每题10分,共60分)1.黑白气象传真图的消息只有黑色和白色两种,求:1)黑色出现的概率为0.3,白色出现的概率为0.7。给出这个只有两个符号的信源X的数学模型。假设图上黑白消息出现前后没有关联,求熵;2)假设黑白消息出现前后有关联,其依赖关系为:,,,,求其熵;2.二元对称信道如图。  ;1)若,,求和;2)求该信道的信道容量和最佳输入分布。3.信源空间为,试分别构造二元和三元霍夫曼码,计算其平均码长和编码效率。4.设有一离散信道,其信道传递矩阵为,并设,试分别按最小错误概率准则与最大似然译码准则确定译码规则,并计算相应的平均错误

3、概率。5.已知一(8,5)线性分组码的生成矩阵为。求:1)输入为全00011和10100时该码的码字;2)最小码距。6.设某一信号的信息传输率为5.6kbit/s,在带宽为4kHz的高斯信道中传输,噪声功率谱NO=5×10-6mw/Hz。试求:(1)无差错传输需要的最小输入功率是多少?(2)此时输入信号的最大连续熵是多少?写出对应的输入概率密度函数的形式。一、概念简答题(每题5分,共40分)1.答:平均自信息为表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。平均互信息表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表

4、示通信前后整个系统不确定性减少的量。2.答:最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。最大熵值为。3.答:信息传输率R指信道中平均每个符号所能传送的信息量。信道容量是一个信道所能达到的最大信息传输率。信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。  平均互信息是信源概率分布的∩型凸函数,是信道传递概率的U型凸函数。  4.答:通信系统模型如下:    数据处理定理为:串联信道的输入输出X、Y、Z组成一个马尔可夫链,且有,。说明经数据处理后,一般只会增加信息的损失。5.答:香农公式为,它是高斯加性白噪声信道在单位时间内的信道容量,其

5、值取决于信噪比和带宽。由得,则6.答:只要,当N足够长时,一定存在一种无失真编码。7.答:当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。8.答:1)保真度准则为:平均失真度不大于允许的失真度。2)因为失真矩阵中每行都有一个0,所以有,而。二、综合题(每题10分,共60分)1.答:1)信源模型为    2)由得则2.答:1)    2),最佳输入概率分布为等概率分布。3.答:1)二元码的码字依序为:10,11,010,011,1010,1011,1000,1001。平均码长,编码效率2)三元码的码字依序为:1,00,02,20

6、,21,22,010,011。平均码长,编码效率4.答:1)最小似然译码准则下,有,2)最大错误概率准则下,有,5.答:1)输入为00011时,码字为00011110;输入为10100时,码字为10100101。2)6.答:1)无错传输时,有即则2)在时,最大熵对应的输入概率密度函数为信息论习题集二、填空(每空1分)(100道)1、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。2、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。3、按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。4、按

7、照信息的地位,可以把信息分成客观信息和主观信息。5、人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。6、信息的可度量性是建立信息论的基础。7、统计度量是信息度量最常用的方法。8、熵是香农信息论最基本最重要的概念。9、事物的不确定度是用时间统计发生概率的对数来描述的。10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。12、自信息量的单位一般有比特、奈特和哈特。13、必然事件的自信息是0。14、不可能事件的自信息量是∞。15、两个相

8、互独立的随机变量的联合自

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。