Энтропия объединений. Условная энтропия

Объединением называются совместные опыты со взаимозависимыми исходами. Пример объединения – действие источника и приёмника сигналов в канале с помехами, если заданы вероятностные характеристики источника, приёмника и процесса передачи сигналов.

Источник производит сигнал х 1, х 2, … хi,… хm, приёмник принимает y 1, y 2, … yi,… ym при этом заданы распределения безусловных вероятностей p (х 1), p (х 2), … p (хi),… p (хm), а также условных вероятностей yj / xi, xi / yj.

Как известно, безусловные и условные вероятности в совместных опытах связаны выражением

(1.45)

На основе этого энтропия объединения

(1.46)

Действие помех приводит к тому, что передавая сигнал хi, в последовательности будет получать разные сигналы yj, что и отражается канальной матрицей.

Задавая качественные признаки сигналов (частоту, фазу и др.) в соответствии с характеристиками помех обеспечивают наибольшие значения условных вероятностей на главной диагонали матрицы, что и обеспечивает возможность передачи информации по каналу.

(1.47)

С учётом (1.45) получим

(1.48)

В преобразованиях (1.48) использованы замены двойных сумм вложенными, также тот факт, что сумма условных вероятностей

(1.49)

В выражении (1.48) первое слагаемое – это энтропия источника Н (X), а Н (Y/X) – это средняя условная энтропия – мера неопределённости того, какой ансамбль принятых сигналов соответствует ансамблю переданных. Эта энтропия складывается из частных условных энтропий

(1.50)

путём их усреднения с учётом распределения безусловных вероятностей p(xi)

(1.51)

Частная условная энтропия – мера неопределённости принятого ансамбля относительно переданного сигнала xi

На основании двойственности зависимости (1.45) можно записать

H (Y,X) = H (Y) + H (X/Y) (1.52)

Условные вероятности p (yj/xi) могут принимать граничные значения p (yj/xi) = 1, если принятые сигналы такие же, как и переданные и p (yj/xi) = p (yj), т.е. какая-либо связь между переданными и принятыми сигналами отсутствует.

В первом случае

(1.53)

или H (Y,X) = H (Y) H (X) = H (Y)

Во втором

т.к. (1.54)

Из (1.54) следует, что энтропия объединения здесь достигает максимума, а передача информации от источника к приёмнику отсутствует.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: