Количественные аспекты информации

Количество информации по Хартли и Шеннону

Понятие количество информации отождествляется с понятием информация. Эти два понятия являются синонимами. Впервые дать меру количества информации попытался в 1928г. Р.Хартли. Он исходил из того, что количественная мера информации должна согласовываться с интуитивным представлением о содержании информации в сообщении (сигнале). Что, например, чем длиннее телеграмма, тем больше информации она обычно содержит. Следовательно, мера информации должна монотонно возрастать с увеличением длительности сообщения (сигнала), которую естественно измерять числом символов в дискретном сообщении и временем передачи в непрерывном случае. Кроме того, на содержание количества информации должны влиять и статистические характеристики, так как сигнал должен рассматриваться как случайный процесс.

При этом Хартли наложил ряд ограничений:

1. Рассматриваются только дискретные сообщения.

2. Множество различных сообщений конечно.

3. Символы, составляющие сообщения равновероятны и независимы.

В этом простейшем случае число N различных сообщений длиною в k символов из алфавита содержащего m символов, равно mk. Пусть, например, алфавит состоит из трех символов: a, b, c, а k=2. Тогда количество различных сообщений будет составлять N=32=9. Это будут aa, ab, ac, ba, bb, bc, ca, cb, cc. Если k=3 то мы уже получим N=33=27 различных сообщений. То есть с увеличением длительности сообщений растет и количество информации. И в этом случае, казалось бы, в качестве меры информации можно было бы взять число N различных сообщений. Но Хартли указал, что экспоненциальная зависимость N от k не позволяет использовать величину N в качестве меры информации. Хартли впервые предложил в качестве меры количества информации принять логарифм числа возможных последовательностей символов.

I=log mk=log N (1.9)

К.Шеннон попытался снять те ограничения, которые наложил Хартли. На самом деле в рассмотренном выше случае равной вероятности и независимости символов при любом k все возможные сообщения оказываются также равновероятными, вероятность каждого из таких сообщений равна P=1/N. Тогда количество информации можно выразить через вероятности появления сообщений I=-log P. Далее Шеннон рассуждал следующим образом.

Пусть вероятность i - го символа (i=1,2,…,m) равна p i. Символы образуют полную группу событий, то есть, Чтобы сообщения были равновероятными, необходим чтобы относительные частоты появления отдельных символов во всех возможных сообщениях были равны. При ограниченной длине сообщений - это условие не выполняется. Но при достаточно длинных сообщениях условие равной вероятности возможных сообщений будет, приближенно выполнятся.

В силу статистической независимости символов, вероятность сообщения длиной в k символов равна . Если i-й символ повторяется в данном сообщении ki раз, то , так как при повторении i символа ki раз k уменьшается до m. Из теории вероятностей известно, что, при достаточно длинных сообщениях (большое число символов k) ki≈k·pi и тогда вероятность сообщений будет равняться . Тогда окончательно получим (1.10)

Данное выражение называется формулой Шеннона для определения количества информации. Формула Хартли является частным случаем формулы Шеннона. В самом деле, при равновероятных символах, то есть при pi=1/m формула Шеннона переходит в формулу Хартли:

Формула Шеннона для количества информации на отдельный символ сообщения совпадает с энтропией. Тогда количество информации сообщения состоящего из k символов будет равняться I=k·H.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: