Понятие информации. 1. Определение понятия «информация»

1. Определение понятия «информация»

2. Виды информации.

3. Количество информации.

4. Классификация информации.

\

Информация» в разговорном языке означает передаваемые сведения, знания; нечто осмысленное и как-то полезное от источника к потребителю. Такое словоупотребление довольно верно́: informare с латыни — «научать». Глядя на дерево, мы не принимаем в память само вещественное дерево, а видим лишь отражённый от него свет.

С другой стороны, одно и то же сообщение может, как нести информацию, так и не содержать её вовсе. Когда человек впервые слышит фразу «Днепр впадает в Чёрное море», это несёт ему информацию о впадении данной реки в данное море, однако если ему это повторить, то теперь эта фраза не будет для него информацией. Понятие информации близко к понятию «данные». Но есть и отличие: данные – это сигналы, из которых ещё надо извлечь информацию.

Современное естествознание уделяет внимание различным процессам переноса - массы, энергии, импульса (количества движения). Все процессы, протекающие в системе во времени, так или иначе связаны с явлениями переноса и изучаются в различных областях науки.

Процессы переноса энергии, массы, импульса, имеют качественную окраску (разнообразие), которая может отождествляться с термином "информация". Это пока весьма неопределенное понятие, про которое Норберт Винер писал: " Информация есть информация, а не материя и не энергия". Разные исследователи вкладывали неоднозначный смысл в этот термин. От всеобщего фундаментального понятия типа "все законы физики можно воспринимать как информацию, заложенную в вещество природой", до известного определения информации по Эшби, как мерыструктурногоразнообразия, что имеет существенное значение, поскольку указывает на связь этого понятия со структурой, т. е. каким-то порядком. Если рассматривать большие системы, то их структура определяется функциональным назначением. Следовательно, просматривается связь: информация - функциональное назначение - порядок. Эти интуитивные соображения становятся более четкими при совместном анализе энтропии и информации.

Классическая (статистическая) теория информации определяет понятие информации через меру уменьшения неопределённости знания о совершении какого-либо события. Такая мера была названа французским физиком Л. Бриллюэном (1889- 1969) энтропией. Он сформулировал так называемый негэнтропийный принцип информации: количество накопленной и сохраняемой в структуре систем информации

I равно уменьшению ее энтропии S. Обычно энтропию S измеряют как меру хаоса X вблизи состояния термодинамического равновесия:

S = k X, X = ln P.

Из второго начала термодинамики, как было показано ранее, следует безвозвратная потеря качества энергии. Однако реальная эволюция ведет не только к росту беспорядка, но и порядка. Этот процесс связан с переработкой информации. Сопоставим неопределенность с понятием информации, а количество информации - с уменьшением неопределенности. Информационная мера упорядоченности П равна разности между максимальным Xmax и текущим значениями меры хаоса, то есть

П = Xmax - X.

Иначе говоря, мера хаоса и мера упорядоченности являются взаимодополняющими функциями. Пусть все состояния равновероятны, тогда X = Xmax и П = 0. При полной упорядоченности, наоборот, X = 0 и П = Xmax. Например, при фиксированном числе микросостояний насколько возрастает мера порядка dП, настолько же убывает и мера беспорядка dX, т. е.

dX = dП, X + П = const.

Следовательно, две противоположности - гармония и хаос - находятся в неустойчивом равновесии, а их сумма есть величина постоянная.

Отметим, что неживая природа, действуя бесцельно и безразлично, выбирает вариант, дающий малое количество информации. Осмысленное действие живой системы резко сужает поле выбора. Количество информации при этом растет во все убыстряющемся темпе и "в оборот" вступает все больше вещества и энергии. Деятельность разумного и духовно развитого человека направлена на повышение упорядоченности окружающей среды. Если эта деятельность прекращена, то "слепые" силы природы увеличивают неупорядоченность и уничтожают следы труда человека. В процессе упорядочения человек уменьшает энтропию среды. Иными словами, как бы извлекает негэнтропию из окружающей среды, а затем использует ее для конструирования собственных тканей и для поддержания жизненных процессов. Наряду с другими оценками результат труда можно характеризовать повышением упорядоченности, то есть количеством управляющей информации или негэнтропии, введенной человеком в окружающую среду.

Итак, по-видимому, бесспорно утверждение, что информация - изменяющийся во времени фактор, находящийся в сложном взаимодействии с различными состояниями материи и энергии. Эти соображения позволяют расширить предложенное Эшби определение информации: информация - мера изменения во времени и в пространстве структурного разнообразия систем.

Приведенные выше размышления о природе информации показывают, что это сложное и до конца не выясненное понятие, которое, похоже, настолько фундаментально, как и естественнонаучные категории материи, энергии, времени.

Для измерения количества информации американский ученый К. Шеннон предложил использовать заимствованную из термодинамики вероятностную формулу энтропии. Сначала использование формулы Шеннона было вызвано соображениями удобства расчетов, но постепенно стал проясняться глубокий смысл этой операции. Информация содержится повсюду: в живой клетке и в мертвом кристалле, в живой и в машинной памяти.

Информационные взаимодействия присущи как материальному, так и духовному миру. Понимание этого открыло перед естествознанием еще один путь познания окружающего нас мира с помощью вероятностной формулы Больцмана – Шеннона.

Принципиально новым явилась введенная Шенноном мера количества информации, с помощью этой статистической формулы энтропии. На общность такого подхода указывает использование формулы Больцмана-Шеннона не только в технических трудах, но и в работах биологов, психологов, лингвистов, искусствоведов, философов и т. д. Шеннон понимал, что его теория не универсальна, что предложенные им для измерения количества информации новые единицы измерения (биты) не учитывают таких важных свойств информации, как ее ценность и смысл. Однако в отказе от конкретного содержания информации ради сопоставимости количества разнообразных сообщений и заключается глубокий смысл. Предложенные Шенноном для измерения количества информации биты пригодны для оценки любых сообщений, будь то известие о рождении ребенка, телевизионный спектакль, астрономические наблюдения и т. д. Это похоже на числа, с помощью которых можно определить количество овец, деревьев, шагов и т. д.

Опираясь на созданную Шенноном теорию, многие ученые пытались найти такие меры количества информации, которые учитывали бы ее ценность и смысл. Но создать универсальные оценки не удалось: для разных процессов различными будут критерии ценности и последние субъективны, т. к. зависят от того, кто будет ими пользоваться. Запах, несущий огромное количество информации для собаки, неуловим для человека. Все эти частные различия игнорируются мерой, предложенной Шенноном, и поэтому она в равной мере пригодна для исследования всех видов информационных процессов.

Теория информации это крупный шаг в развитии научной мысли, так как позволяет углубить представления о сущности, единстве противоположностей понятий информации и энтропии.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: