Информация. Количество информации, неравновероятностные события. Энтропия

Для не равновероятностных событий применяют следующую формулу: , где I-это количество информации, р- вероятность события.

Вероятность события выражается в долях единицы и вычисляется по формуле: р=К/N, где К- величина, показывающая, сколько раз произошло интересующее событие, N –общее число возможных исходов какого-то процесса.

Существует общая формула вычисления количества информации для событий с различными вероятностями. Эту формулу в 1948 г. Предложил американский учёный Клод Шеннон. Количество информации в этом случае вычисляется по формуле:
где I- количество информации;

N- количество возможных событий4

Рi-вероятность отдельных событий.

Количеством информации называют числовую характеристику сигнала, отражающую степень неопределенности, которая исчезает после получения данного сигнала. Эту меру неопределенности к теории информации называют энтропия.

Энтропия – мера внутренней неупорядоченности системы.

Уменьшая неопределенность мы получаем информацию. \


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: