Информация в «остаточном знании»

 

Строго говоря, в последнем примере допускается масса априорных допущений, типа того, что школьник знает о существовании морей вообще и Каспийского в частности, что совсем не обязательно, а если узнает из указанной фразы и это, то явно получает больше информации, чем просто о впадении Волги.

Степень неопределенности сообщения стали измерять величиной, получившей название энтропия и являющейся функцией вероятности. Если вероятность равна 1, то энтропия равна нулю, а если вероятность равна 0, то энтропия равна бесконечности.

Количество информации, полученное как разность между начальной энтропией (до получения сообщения) и конечной энтропией (после получения сообщения), называется негэнтропией (отрицательной энтропией). Поэтому информацию иногда называют отрицательной энтропией. Соответственно у информации и у энтропии одна единица измерения – бит.

Такой подход позволяет строить теории, где физической энтропии сопоставляется негэнтропия информационная, что позволяет изобретать различные «уравнения баланса энтропии и негэнтропии в едином информационно-физическом мире».

Естественно, что модель для балансирования может быть построена всегда, только вот вопрос о том, можно ли строить такие модели для мира «с информационной составляющей» авторам таких построений почему-то в голову не приходит.

Возможно, что в модели мы можем учесть многое, даже то, что, например, для школьного инспектора сообщение школьника о Волге не менее, а может быть и более (попробуйте подсчитать!) информативно, чем для самого школьника.

Действительно школьник, как и инспектор, уже информирован, но последнему это позволяет оценить не только знания отдельного ученика, но и уровень преподавания географии, или инспектор может изменить свое личное отношение к учителю, или поехать на Волгу ловить рыбу, ибо и такая идея может придти в голову в процессе восприятия этого сообщения.

Примитивный же энтропийный подход к информации, связан с математическими попытками, так сказать «уравнивать или возмещать потерю физической энергии выработкой информации». На современном уровне развития науки такие утверждения ничем серьезным не обоснованы, более того, есть доводы для совершенно других выводов.

Весьма вероятно, что существуют не только физическая энтропия и негэнтропия (хотя природный негэнтропийный процесс явление «не очень распространенное»), но и информационная энтропия и негэнтропия, для исследования которых, как минимум, необходимо начинать с договоренности о том, что же такое информация и синоним ли это негэнтропии? Только вот как-то уж очень удобно ее после этого с энтропией балансировать.

Может слишком удобно? Может выдумка эта математически удобная, типа системы декартовых координат, привнесенной в Природу, но отнюдь там не существующей? Пишут же ведь сегодня в отрецензированных и рекомендованных минобром вузовских учебниках о том, что «объекты и явления не только содержат информацию, но и непрерывно испускают ее в окружающее пространство». А вдруг всю испустят? И останутся без нее вовсе?

 


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: