При равных вероятностях знаков энтропия источника максимальна

Если 32 буквы русского алфавита считать равновероятными, Н = log232= 5.

Если учесть частоту появления букв в тексте, Н» 4,42.

Если учесть корреляцию соседних букв, Н» 3,53.

Если учесть дальние связи букв между словами, Н» 1,5.

Производительность источника, выдающего знаки со скоростью Vи= 1/τи ( τи длительность одного знака) – это количество информации, выдаваемое в единицу времени:


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: