Проблема понятия информации

Слово «информация» — одно из наиболее употребляемых в современном языке. Смысл слова на первый взгляд прост и понятен и в массовом сознании ассоциируется с совокупностью новых сведений, оперативно распространяющихся в обществе. Часто в качестве синонимов мы употребляем слова «сообщение», «сведения», «известия» и т.д. Но эти истолкования отражают только самый поверхностный слой всего объема понятия этого термина.

Между тем информационное взаимодействие между объектами осуществляется на всех уровнях, от микро- до макромира. В силу этого информация заключает в себе предельно широкий объем понятия, выходящий за рамки какой-либо одной отрасли знания и используемый большинством наук. Поэтому в рамках философии, изучающей наиболее общие законы материального мира, стало формироваться научное направление — теория информации.

Одной из задач теории информации стало рассмотрение термина «информация» в предельно широком смысле. Попыток охарактеризовать этот термин было предпринято очень много. Одни ученые пытались определить информацию через различные свойства материи, другие выделяли ее содержательный и ценностный аспекты. Единого определения информации, удовлетворяющего всех, на сегодняшний день не выработано.

Роль информации в управлении поведением биологических систем стала предметом исследования такой науки, как кибернетика, которая вынесла на рассмотрение научного сообщества свою трактовку этого термина. Специалисты в области кибернетики обратили внимание на аспект взаимодействия между передающим сигнал (информацию) и воспринимающим его. Сигнал рассматривается ими как физический процесс, имеющий информационное значение, установленное принятым соглашением. Это мельчайшее изменение во внешней среде, указывающее на более значительные последующие ее изменения. Сигналы могут иметь разную природу, их главное предназначение — быть воспринятыми органами чувств

субъекта. При этом смысл, который несет в себе сигнал, заранее должен быть ему известен.

Для передачи информации необходимы два и более участника, один из которых передает, а остальные получают сигналы. Их взаимодействие осуществляется по принципу отражения. Любые два объекта материального мира всегда отличаются друг от друга. В результате информационного взаимодействия отдельные свойства, качества, стороны одного объекта заимствуются другим и этот другой несет в себе, в своей структуре следы воздействия. Таким образом, осуществляется движение информации.

Объекты, участвующие в информационном обмене, имеют разную природу, уровень развития, структуру, содержание. В силу этого отражение друг друга не может быть тождественным, абсолютным и адекватным, так, чтобы каждому элементу отражаемого объекта соответствовал элемент отражения и наоборот.

Информационное отражение может осуществляться с большей или меньшей степенью адекватности. Чем структурно проще информация, тем больше вероятности ее адекватного воспроизведения.

Сигнальная концепция информации стала фундаментальной основой последующего бурного развития вычислительной техники, ибо дала возможность количественно охарактеризовать информацию в двоичной системе — битах. Один бит информации заключает в себе один сигнал, либо его отсутствие.

Одно из определений объема понятия «информация» связано с разнообразием материального мира. Там, где есть разнообразие — обязательно возникают информационные потоки. Эта гипотеза принадлежит английскому ученому У.Р. Эшби, который трактует информацию как отраженное разнообразие. В результате информационного процесса происходит передача разнообразия от одного объекта к другому, нарушается монотонность.

Таким образом, любая информация несет что-то новое, что позволяет отличить от старого. Эта новизна содержит в себе элемент неопределенности. Как только взаимодействие произошло, информация передана, сообщение получено, книга прочитана, картина увидена, музыкальная запись прослушана

и т.д., эта неопределенность снимается. Это позволило американскому ученому К.Шеннону выдвинуть еще одно определение информации - как меры снятой неопределенности - энтропии. В кибернетике информация тесно связывается с энтропией, одним из основных понятий классической физики, т.е. со способностью энергии к превращениям. Н.Винер пишет: «Количество информации в системе есть мера организованности системы, точно так же энтропия системы есть мера дезор-ганизованности системы, одно равно другому, взятому с обратным знаком». Таким образом, информация в трактовке К.Шеннона и Н.Винера есть отрицание энтропии.

Зависимость информации от характера материального носителя.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: