Пропускная способность двойного симметричного канала без памяти

1. Вначале исследуем энтропию двоичного источника, который производит поток взаимонезависимых сигналов 0, 1 с безусловными вероятностями р 0, p 1.

При граничных значениях p 1 = 0 (p 0 = 1 0 = 1) и p 1 = 1 (p 0 = 1 1 = 0) в соответствии со свойствами частной энтропии энтропия источника равна нулю. Так как эта величина положительна, то при промежуточных значениях вероятностей p 0, p 1 оно будет иметь экстремум. Среднее значение энтропии на сигнал здесь

Возьмём производную и приравняем её нулю:

и экстремум имеет место при

, т.е. тогда, когда сигналы равновероятны.

Величина энтропии в точке экстремума

бит/сигнал

Полученные результаты в графической форме представлены на рис. 1.5.

 
 

Рис. 1.5

Если m >2, максимум энтропии источника также будет при условии, что сигналы равновероятны и взаимозависимы.

При этом и согласно (…)

(1.61)

2. Симметричным называется канал, для которого условные вероятности трансформаций сигналов одинаковы

 
 

и (1.62)

Рис 1.6

Тогда термин «канал без памяти» обозначает то, что принятый сигнал зависит только от переданных на кануне (по аналогии с эргодическим источником при r = 1) и не зависит от переданных ранее.

Исследуем условия реализации пропускной способности такого канала и воспользуемся для этой цели выражением

Исследуем зависимости H(Y) и H(Y/X) от вероятностных характеристик источника. Теория вероятностей устанавливает здесь следующее соотношение

(1.63)

В нашем случае безусловная вероятность принятого сигнала 0

(1.64)

Источник производит максимум информации, если p (x 1) = p (x 0). Это приводит к тому, что в этом случае p (y 0) = p (x 0), p (y 1) = p (x 1), а следовательно здесь и энтропия H(Y) достигает максимума.

Условная энтропия согласно H (Y/X) = –p


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: