Решение. По каналу связи передаются сообщения из двух символов

Задача №1

По каналу связи передаются сообщения из двух символов. Вероятности появления отдельных символов равны р(х1)=0,65; р(х2)=0,45, а статистическая связь между ними задаётся условными вероятностями:

р(х11)=0,8; р(х12)=0,35;

р(х21)=0,2; р(х22)=0,65.

Определить условную энтропию и энтропию последовательности. Что характеризует условная энтропия?

Решение

Для определения условной энтропии воспользуемся формулой:

(бит/сообщение).

Энтропию последовательности без учета статистической связи между символами определяем по формуле:

;

(бит/сообщение).

Энтропия последовательности равна:

H(x,x’)=H1(x)+H2(x);

H(x,x’)= 0,922369+ 0,889584= 1,811953 (бит/сообщение).

Если символы независимы, то

H(x,x’)=2H1(x)= 1,844738 (бит/сообщение).

Условная энтропия характеризует количество информации, приходящейся в среднем на 2-й символ.



Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: