Расчет полных условных энтропий

Если существует статистическая связь между символами алфавита источника и приемника, то энтропия приемника по отношению к источнику определится по формуле:

                  (3.6)

H(B/A) = 0.979 бит/символ

Энтропия источника по отношению к приемнику рассчитается аналогично: 

                  (3.7)

H(A/B) = 1.134 бит/символ

Энтропия совместных А и В будет в таком случае найдена по следующей формуле:

                                 (3.8)

H(AB) = 3.134 бит/2 символа

Размерность [бит/2 символа] означает, что взаимная энтропия представляет собой неопределенность возникновения пары символов, т.е. неопределенность на два символа.

Опираясь на формулы 3.2 и 3.4, можно показать, что энтропия появления событий АВ будет также рассчитываться как:

H(AB) = H(B) – H(A/B)                                        (3.9)

Из данной формулы можно выразить формулы для определения энтропии источника и приемника:

H(A) = H(AB) – H(B/A)                                      (3.10)

      Н(А) = 2.155 бит/символ

H(B) = H(AB) – H(A/B)                                            (3.11)

                                                     Н(В) = 2 бит/символ

 


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: