Мера информации источника дискретных сообщений

Поскольку сообщение источника генерируется случайным образом, далее предполагается, что алгебра сообщений аналогична алгебре случайных событий.

Пусть источник может передавать n несовместных и независимых сообщений с вероятностями . Количество информации, содержащееся в сообщении составляет

Единицы измерения информации зависят от величины a и носят соответственно названия 2 – бит, е – нит, 10 – дит. Однако, поскольку логарифмы переменной по разным основаниям различаются константой независимо от значения переменной

в теории информации принято обозначение log x, которое означает логарифмическую зависимость по произвольному основанию, где масштаб и единицы численного результата определяются основанием логарифмирования.

Количество информации, содержащееся в сообщении также носит название полной энтропии сообщения .

Изначально понятие энтропии было введено в термодинамике как мера неупорядоченности или хаоса системы и определяется как

где k – постоянная Больцмана, W – статистический вес системы или количество микросостояний системы, которыми может реализовываться заданное макросостояние.

1     1     2  
               
2       2     1

а) б)

Рис. 1

На рис.1 приведены макросостояния системы со статистическим весом: W =1 – а) обе молекулы слева от перегородки и W = 2 – б) молекулы по разные стороны от перегородки. Второй закон термодинамики запрещает самопроизвольное протекание процессов, сопровождающихся уменьшением энтропии, например передачу тепла от горячего тела к холодному, или диффузию молекул из области высокой концентрации в область низкой.

Среднее количество информации, которое несется сообщением источника (мера его непредсказуемости) носит название средней удельной энтропии, которую мы в дальнейшем будем просто называть энтропией источника

.

Слагаемые данного выражения носят название частных энтропий.

Свойства энтропии:

- , при чем , если источник генерирует единственное детерминированное сообщение;

- при заданном n энтропия источника максимальна, если сообщения равновероятны и статистически независимы и составляет

.

Покажем, что для источника из двух сообщений, его энтропия максимальна, если сообщения равновероятны.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: