double arrow

Элементы теории информации

Слово «информация» латинское. За долгую жизнь его значение претерпевало эволюции, то расширяя, то предельно сужая свои границы. Вначале под словом «информация» подразумевали: «представление», «понятие», затем - «сведения», «передача сообщений». Теперь под словом «информация» понимается «мера определенности в сообщении».

Существование множества определений информации обусловленно сложностью, специфичностью и многообразием подходов к толкованию сущности этого понятия. В качестве справки выделим три наиболее распространенные концепции информации, каждая из которых по-своему объясняет ее сущность.

Первая концепция (концепция К. Шеннона), отражая количественно-информационный подход, определяет информацию как меру неопределенности (энтропию) события. Количество информации в том или ином случае зависит от вероятности его получения: чем более вероятным является сообщение, тем меньше информации содержится в нем. Этот подход, хоть и не учитывает смысловую сторону информации, оказался весьма полезным в технике связи и вычислительной технике, послужил основой для измерения информации и оптимального кодирования сообщений. Кроме того, он представляется удобным для иллюстрации такого важного свойства информации, как новизна, неожиданность сообщений. При таком понимании информация - это снятая неопределенность, или результат выбора из набора возможных альтернатив.

Вторая концепция рассматривает информацию как свойство (атрибут) материи. Ее появление связано с развитием кибернетики и основано на утверждении, что информацию содержат любые сообщения, воспринимаемые человеком или приборами. Наиболее ярко и образно эта концепция информации выражена академиком В.М. Глушковым. Он писал, что "информацию несут не только испещренные буквами листы книги или человеческая речь, но и солнечный свет, складки горного хребта, шум водопада, шелест травы". Иными словами, информация как свойство материи создает представление о ее природе и структуре, упорядоченности, разнообразии и т.д. Она не может существовать вне материи, а значит, она существовала и будет существовать вечно, ее можно накапливать хранить перерабатывать.

Третья концепция основана на логико-семантическом (семантика - изучение текста с точки зрения смысла) подходе, при котором информация трактуется как знание, причем не любое знание, а та его часть, которая используется для ориентировки, для активного действия, для управления и самоуправления. Иными словами, информация - это действующая, полезная," работающая " часть знаний.

Теорию информации вызвали к жизни потребности практики. Ее возникновение связывают с работой американского математика Клода Шеннона «Математическая теория связи», изданной в 1946 г. (хотя Хартли проводил исследования в этой области еще в 1928 г.). Основы теории информации опираются на результаты, полученные многими учеными.

Ко второй половине XX века земной шар гудел от передающейся информации, бегущей по телефонным и телеграфным кабелям и радиоканалам. Позже появились электронные вычислительные машины - переработчики информации. А для того времени основной задачей теории информации являлось, прежде всего, повышение эффективности функционирования систем связи.

Информационная деятельность, информационные процессы и информационные технологии в целом - это совокупность методов и средств сбора, передачи, хранения и обработки информации. Условиями эффективного функционирования информационных систем является согласованность методологического, информационного, методического, программно-технического, лингвистического и организационного обеспечения.

Слово «информация» имеет широкий смысл. В обычном смысле информация – разновидность сообщений любой физической природы, несущих какие – либо сведения.

Научная информация должна ответить на вопрос околичестве информации и ее надежности, о методах преобразования и об эквивалентности различных видов информации. Соответствующую этим требованиям теорию и предложил Шеннон в 1948 г. Он указал критерий,позволяющий сравнить количество информации, доставляемой разными сигналами, на одном языке.

Прежде всего, им установлено, что понятие информации легко связать с понятием вероятности. Здравый смысл подсказывает, что если событие маловероятно, то его появление для нас имеет большую ценность, т.е. в нем содержится большая информация, и наоборот.

Пусть имеются исходы Ai событий с вероятностью Pi.

Например, выпадение дождя за год:

Аi – выпадение дождя в конкретный i – ый день;

Рi – вероятность того, что он выпадет в этот день;

к – количество дней.

Исходы А1 А2 Аk
Вероятность Р1 Р2 Рk

Очевидно Р1 + Р2 + … + Рk = 1

При N испытаниях (несколько лет): NPi = ni

и т.д.

Можно положить информацию об А: inf (А) = f (Р)

Ее можно измерить, например, так:

Это логарифмическая мера информации о случайном исходе А события.

Практически больший интерес представляет целый опыт , поэтому вместо inf (A1), inf (A2), … inf (Ak) находят среднюю информацию Н ().

При N опытах с исходами А1, А2, … Аk

и вероятностями Р1, Р2, … Рk

в сериях n1, n2, … nk

Средняя информация Н() выражает меру неопределенности. Ибо чем «неопределеннее» исход опыта , тем труднее нам предсказать его заранее, тем большую информацию мы получаем, выяснив исход.

Шеннон назвал Н() энтропией . Этот термин в теорию информации пришел из термодинамики. Энтропия в разновесных системах равна отношению количества тепла, сообщенного системе, к ее температуре. Неравновесные процессы сопровождаются ростом энтропии, они приближают систему к состоянию равновесия, в котором энтропия максимальна.

Один из наиболее общих законов природы, получивший название второго начала термодинамики, гласит: в изолированной системе процессы протекают в сторону возрастания энтропии. Почти каждое слово здесь требует пояснения.

«Изолированной» называется система, которая не отдает накопленной в ней энергии и не получает энергии извне. Другими словами, это система, полностью отрезанная от внешнего мира.

Гораздо труднее сказать, что значит «процессы протекают в сторону возрастания энтропии». Была чашка и разбилась – энтропия возросла. Сгорел кусок угля – энтропия возросла. Наблюдается стремление Вселенной к полному равновесию (тепловая смерть Вселенной). Непрерывно уменьшается количество потенциальной энергии, которую можно перевести в работу. Белка бросает шишки с дерева. Шишки, падая, задевают и раскачивают ветки. Больше эти шишки работу совершить не могут, если не затратить дополнительную энергию, хотя сама материя никуда не делась.

Камень лежит на вершине скалы. Если он находится достаточно близко к краю или даже наполовину свешивается над обрывом, рано или поздно он упадет вниз. В этом-то и проявляется второе начало термодинамики – оно не любит острых горных вершин и глубоких ущелий (стремление ко всеобщему равновесию). А вот точно предсказать момент, когда это произойдет, не может никакая наука. Можно подсчитать только вероятность для камня упасть в течение заданного промежутка времени.

Энтропия, таким образом, это мера вероятности пребывания системы в данном состоянии.

Н () всегда положительна.

Из всех опытов (“к” – их количество) самый неопределенный вариант, когда все события равновероятны, т.е.

При любых Pi < log K = H()

Пример. Доказать формулу для двух событий (основание логарифмов считаем больше единицы) при следующих вероятностях:

Дано: Р1 = Р1 = Р2 = Р =

К = 2 К = 2

Р2 = (опыт a) (опыт aо)

Значит,

Возьмем для двух событий другое соотношение вероятностей:

Р1 = Р2 =

Это указывает на то, что система с равновесными состояниями наиболее неопределенна, т.е. ее энтропия максимальна (как в термодинамике).

Выбор основания логарифмов связан с выбором единицы измерения энтропии и информации. Он в достаточной степени произволен.

Из алгебры известно:

Все величины энтропии опытов просто умножаются на постоянный множитель, т.е. возможно изменение единиц измерения.

Если принять за основу двоичный логарифм, то информация будет равна единице при :

при ,

что соответствует равновероятности двух событий или равновероятности каждого из двух состояний.

Эта единица называется двоичной единицей или битом, т.е. это количество информации, которое дает система, имеющая два равновероятных состояния, например «орел» – «решка».

Если принять основание логарифмов равным 10, то единица информации получится из 10 равновероятностных событий.

при

Эта единица называется десятичной единицей информации или дитом (в настоящее время не употребляется).

Сама система (любая изучаемая система) характеризуется совокупностью числа исходов. Полная совокупность несовместимых исходов называется ансамблем Х.

Каждому значению Xi состояния системы можно поставить в соответствие вероятность его осуществления:

Х1, Х2, Х3, ... Xi, ... Xn

X =

P1 (X1) P2 (X2) P3 (X3) ... Pi (Xi) ... Pn (Xn)

Очевидно, что

Информацию об Х можно оценить убылью неопределенности системы, т.е.

I(x) = H(x) – H1(x),

где H (x) – энтропия до опыта,

Н1 (х) – после опыта.

Если после опыта неопределенность в системе равна нулю, то говорят, что получена информация, равная энтропии системы:

I(x) = H(x)

Энтропия Н (х) имеет максимальное значение, когда все n исходов Х равновероятны. Формула Хартли:

Н (х) =

С помощью прибора мы не можем получить максимальную информацию. Потеря части информации вызвана неопределенностью системы из-за шумового воздействия самого измерителя.

Пример. n = 2. Распределение Н (х):

H

0 0,5 1 P

Теория информации проникла во многие науки, в том числе в технические и экономические. Учение об информации, возникшее в силу потребностей теории связи и кибернетики, перешагнуло их рамки.

Многие научные дисциплины используют теорию информации, чтобы подчеркнуть новое направление в старых науках. Так возникла, например, информационная экономика.

Но чрезвычайно большое значение приобрел термин «информация» в связи с развитием новейшей компьютерной техники, автоматизацией умственного труда, развитием новых средств связи и обработки информации и особенно с возникновением информатики.

Одной из важнейших задач теории информации является изучение природы и свойств информации, создание методов ее обработки, в частности преобразования самой различной современной информации в программы для ЭВМ, с помощью которых происходит автоматизация умственной работы - своеобразное усиление интеллекта, а значит, развитие интеллектуальных ресурсов общества.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



Сейчас читают про: