【信息论与编码】习题-填空题

发布时间:2024年01月06日

目录

填空题

1.克劳夫特不等式是判断( )的充要条件。

答:

(1)唯一可译码

2.无失真信源编码的中心任务是编码后的信息率压缩接近到()限失真压缩中心任务是在给定的失真度条件下,信息率压缩接近到( )。

答:

(1)1

(2)2

3.常用的检纠错方法有( )、反馈重发和混合纠错三种。

答:

(1)前向纠错

4.无记忆信源信源熵为( )。

在这里插入图片描述
答:

(1)2

5.在信息处理中,随着处理级数的增加,输入消息和输出消息之间的平均互信息量趋于( )。

答:

(1)减少

6.根据码字所含的码元的个数,编码可分为( )编码和( )编码。

答:

(1) 定长

(2)变长

7.按照信源发出的消息在时间和幅度上的分布情况,可将信源分成( )信源和连续信源两大类。

答:

(1)离散

8.信源编码的目的是提高通信的( ),信道编码的目的是提高通信的可靠性,加密编码的目的是保证通信的( )。

答:

(1)有效性

(2)安全性

9.如某线性分组码的最小汉明距dmin=4,则该码最多能检测出( )个随机错,最多能纠正( )个随机错。

答:

(1)3

(2)1

10.设某信道输入端的熵为H(X),输出端的熵为H(Y),该信道为无噪有损信道,则该信道的容量为( )。

答:

(1)MaxH(Y)

11.设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为( )时,信源熵达到最大值,为( ),此时各个消息的自信息量为( )。(注意:非整数结果用小数表示,小数点后取两位)

答:

(1)0.25

(2)2

(3)2

12.自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越( )。

答:

(1)小

13.信源的冗余度来自两个方面,一是信源符号之间的( ),二是信源符号概率分布的( )。

答:

(1)相关性

(2)不均匀性

14.设信源X包含8个不同离散消息,当且仅当X中各个消息出现的概率为( )时,信源熵达到最大值,为( )比特。

答:

(1)1/8

(2)3

15.在通信领域里,发送端发送什么有一个不确定量,通过信道传输,接收端收到信息后,对发送端发送什么仍然存在一个不确定量,把这两个不确定量差值用( )来表示。

答:

(1)互信息

16.必然事件的自信息是( )。

答:

(1)0

17.一个随机事件的( )定义为其出现概率对数的负值。

答:

(1)自信息量

18.1948年,美国数学家( )发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

答:

(1)香农

文章来源:https://blog.csdn.net/m0_51993913/article/details/135420642
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。