Поскольку сообщение источника генерируется случайным образом, далее предполагается, что алгебра сообщений аналогична алгебре случайных событий.
Пусть источник может передавать n несовместных
и независимых
сообщений
с вероятностями
. Количество информации, содержащееся в сообщении
составляет

Единицы измерения информации зависят от величины a и носят соответственно названия 2 – бит, е – нит, 10 – дит. Однако, поскольку логарифмы переменной по разным основаниям различаются константой независимо от значения переменной

в теории информации принято обозначение log x, которое означает логарифмическую зависимость по произвольному основанию, где масштаб и единицы численного результата определяются основанием логарифмирования.
Количество информации, содержащееся в сообщении
также носит название полной энтропии сообщения
.
Изначально понятие энтропии было введено в термодинамике как мера неупорядоченности или хаоса системы и определяется как

где k – постоянная Больцмана, W – статистический вес системы или количество микросостояний системы, которыми может реализовываться заданное макросостояние.
1
| 1
| 2
| |||||
2
| 2
| 1
|
а) б)
Рис. 1
На рис.1 приведены макросостояния системы со статистическим весом: W =1 – а) обе молекулы слева от перегородки и W = 2 – б) молекулы по разные стороны от перегородки. Второй закон термодинамики запрещает самопроизвольное протекание процессов, сопровождающихся уменьшением энтропии, например передачу тепла от горячего тела к холодному, или диффузию молекул из области высокой концентрации в область низкой.
Среднее количество информации, которое несется сообщением источника (мера его непредсказуемости) носит название средней удельной энтропии, которую мы в дальнейшем будем просто называть энтропией источника
.
Слагаемые данного выражения
носят название частных энтропий.
Свойства энтропии:
-
, при чем
, если источник генерирует единственное детерминированное сообщение;
- при заданном n энтропия источника максимальна, если сообщения равновероятны и статистически независимы и составляет
.
Покажем, что для источника из двух сообщений, его энтропия максимальна, если сообщения равновероятны.








