1.1. Источник сообщений выдает символы из ансамбля . Распределения вероятностей приведены в табл. 1.1. Найти количество информации, содержащееся в каждом из символов источника при их независимом выборе (источник без памяти). Вычислить энтропию и избыточность заданного источника.
Таблица 1.1
Вариант | а) | б) | в) | г) | д) | е) | ж) | з) | и) | к) |
0,1 | 0,1 | 0,03 | 0,4 | 0,5 | 0,06 | 0,4 | 0,24 | 0,24 | 0,1 | |
0,25 | 0,05 | 0,26 | 0,25 | 0,04 | 0,15 | 0,18 | 0,18 | 0,28 | 0,1 | |
0,15 | 0,04 | 0,09 | 0,05 | 0,03 | 0,15 | 0,1 | 0,38 | 0,05 | 0,1 | |
0,15 | 0,01 | 0,05 | 0,3 | 0,15 | 0,07 | 0,1 | 0,1 | 0,22 | 0,2 | |
0,3 | 0,2 | 0,16 | - | 0,04 | 0,05 | 0,06 | 0,06 | 0,15 | 0,35 | |
0,05 | 0,03 | 0,1 | - | 0,12 | 0,29 | 0,07 | 0,02 | 0,06 | 0,15 | |
- | 0,07 | 0,09 | - | 0,1 | 0,19 | 0,05 | 0,02 | - | - | |
- | 0,5 | 0,22 | - | 0,02 | 0,04 | 0,04 | - | - | - |
1.2. Дискретная последовательность символов, выдаваемых источником, описывается простой цепью Маркова с матрицей переходных вероятностей:
.
Определить энтропию и избыточность двоичного источника без памяти и с памятью, если дискретный стационарный источник задан с помощью матриц переходных вероятностей (табл.1.2).
Таблица 1.2
Вариант | а) | б) | в) | г) | д) |
1.3. Имеется выборка 100 000 пар совместных событий от дискретных источников и . Алфавит каждого из дискретных источников содержит четыре события. Оценки пар событий получены подсчетами их относительной частоты и сведены в табл. 1.3. Определить: энтропии источников и ; совместную энтропию источников; условные вероятности ; условную энтропию , .
|
|
Таблица 1.3
В-нт | |||||
а) | 0,10 | 0,05 | 0,05 | ||
0,05 | 0,15 | 0,15 | |||
0,10 | 0,10 | 0,10 | |||
0,05 | 0,05 | 0,05 | |||
б) | |||||
0,15 | 0,05 | 0,05 | |||
0,05 | 0,15 | 0,1 | |||
0,05 | 0,1 | 0,1 | |||
0,1 | 0,05 | 0,05 | |||
в) | |||||
0,15 | 0,05 | 0,05 | |||
0,05 | 0,1 | 0,1 | |||
0,05 | 0,1 | 0,1 | |||
0,05 | 0,05 | 0,15 | |||
г) | |||||
0,1 | 0,05 | 0,05 | |||
0,05 | 0,1 | 0,1 | |||
0,1 | 0,2 | 0,1 | |||
0,05 | 0,05 | 0,05 | |||
д) | |||||
0,1 | 0,05 | 0,05 | |||
0,05 | 0,1 | ||||
0,1 | 0,2 | 0,1 | |||
0,1 | 0,05 | 0,05 | 0,05 |
1.4. Алфавит, из которого строятся передаваемые сообщения, содержит четыре символа . Время передачи каждого из символов соответственно равно: =1 мсек; =2 мсек; =3 мсек; =5 мсек. Определить скорость передачи информации:
а) для случая равновероятных символов;
б) для передачи сообщений со следующими вероятностями появления символов: =1/8; =1/8; =1/4; =1/2.
1.5. Сообщения составлены из алфавитов А и В. Вероятность появления символов алфавита =0,6; =0,4. Помехи в канале связи заданы канальной матрицей: . Определить скорость передачи информации, если время передачи одного символа =2 мсек.
1.6. Сообщения, составленные из букв русского алфавита, передаются в коде МТК-2 при помощи стартстопного телеграфного аппарата. В начале передачи идёт стартовая посылка, а в конце – стоповая. Буква передаётся пятью элементарными посылками длительностью t1 = 20 мсек. Длина стартовой посылки t2 = 20 мсек, стоповой - t3 = 30 мсек. Определить:
|
|
а) скорость передачи информации;
б) скорость передачи информационных символов;
в) время передачи сообщения, состоящего из 450 букв.
1.7. Сообщения передаются в двоичном коде. Время передачи «0» t0 = 1 мсек, длительность импульса, соответствующего «1», t1 = 5 мсек. Определить скорость передачи информации для случаев:
а) когда символы равновероятны и независимы;
б) вероятность появления символа «0» р0 = 0,37, вероятность появления символа «1» р1 = 0,63;
в) р0 = 0,2, р1 = 0,8;
г) р0 = 0,02, р1 = 0,98.
1.8. Число символов алфавита m = 4. Вероятности появления символов равны соответственно р1 = 0,15, р2 = 0,4, р3 = 0,25, р4 = 0,2. Длительность символов t1 = 3 мсек, t2 = 2 мсек, t3 = 5 мсек, t4 = 6 мсек. Определить скорость передачи сообщений, составленных из данных символов.
1.9. Сообщения составлены из пяти качественных признаков ( =5). Длительность элементарной посылки =20 мсек. Определить, чему равна скорость передачи сигналов и информации.
1.10. По двоичному каналу связи передается информация со скоростью 14 400 бит/сек. Сколько времени понадобится для передачи 1000 страниц русского текста (энтропия = 5бит/букву) с использованием двоичного кода без избыточности (одна страница - 800 букв)?
1.11. По каналу связи без шума могут передаваться четыре сигнала длительностью 1 мсек каждый. Определить емкость такого канала.
1.12. Определить пропускную способность дискретного бинарного канала, способного передавать 100 символов «0» или «1» в единицу времени, в котором в результате действия помех 5% сообщений не соответствуют переданным.
1.13. Определить пропускную способность симметричного бинарного канала, если вероятность ложного приёма рл = 0,02, t0 = t1 = 1 мсек.
1.14. Чему равна пропускная способность симметричного канала, если источник вырабатывает со скоростью 2 знака в секунду сообщения, закодированные кодом с основанием m = 10, а вероятность ложного приёма рл = 0,03?
1.15. Канал связи описан следующей канальной матрицей:
.
Вычислите среднее количество информации, которое переносится одним символом сообщения, если вероятности появления символов источника сообщений равны =0,7; =0,2; =0,1. Чему равны информационные потери при передаче сообщения из 1000 символов алфавита , , ? Чему равно количество принятой информации?
1.16. Источник информации выдает сообщения со скоростью = 1000 симв/сек. Алфавит состоит из трех символов (букв) X, Y, Z, статистика появления которых равна 0,7; 0,2; 0,1. Закодировать символы источника информации таким образом, чтобы обеспечить прохождение сообщений через канал связи с пропускной способностью С = 1250 бит/сек без задержек.
1.17. Определите пропускную способность канала (рис.1.1). Символы на входе канала считать равновероятными.
а) | е) | ||
б) | ж) | ||
в) | з) | ||
г) | и) | ||
д) | к) |