Задача №1
По каналу связи передаются сообщения из двух символов. Вероятности появления отдельных символов равны р(х1)=0,65; р(х2)=0,45, а статистическая связь между ними задаётся условными вероятностями:
р(х1/х1)=0,8; р(х1/х2)=0,35;
р(х2/х1)=0,2; р(х2/х2)=0,65.
Определить условную энтропию и энтропию последовательности. Что характеризует условная энтропия?
Решение
Для определения условной энтропии воспользуемся формулой:
(бит/сообщение).
Энтропию последовательности без учета статистической связи между символами определяем по формуле:
;
(бит/сообщение).
Энтропия последовательности равна:
H(x,x’)=H1(x)+H2(x);
H(x,x’)= 0,922369+ 0,889584= 1,811953 (бит/сообщение).
Если символы независимы, то
H(x,x’)=2H1(x)= 1,844738 (бит/сообщение).
Условная энтропия характеризует количество информации, приходящейся в среднем на 2-й символ.