При равных вероятностях знаков энтропия источника максимальна

Если 32 буквы русского алфавита считать равновероятными, Н = log232= 5.

Если учесть частоту появления букв в тексте, Н» 4,42.

Если учесть корреляцию соседних букв, Н» 3,53.

Если учесть дальние связи букв между словами, Н» 1,5.

Производительность источника, выдающего знаки со скоростью Vи= 1/τи ( τи длительность одного знака) – это количество информации, выдаваемое в единицу времени:




double arrow
Сейчас читают про: