double arrow

Понятие информации, её виды, свойства и структура


Слово "информация" известно в наше время каждому. Вся жизнь человека так или иначе связана с накоплением и обработкой информации, которую он получает из окружающего мира, используя основные органов чувств – зрение, слух, вкус, обоняние и осязание. Термин информация происходит от латинского слова informatio – разъяснение, изложение. Первоначальное значение этого понятия – «сведения, передаваемые людьми устным, письменным или иным способом». Понятия отличаются от определений тем, что разные дисциплины в разных областях науки и техники вкладывают в него разный смысл, с тем чтобы оно в наибольшей степени соответствовало предмету и задачам конкретной дисциплины. Имеется множество определений понятия информации – от наиболее общего философского (информация есть отражение реального мира) до наиболее частного прикладного (информация есть сведения, являющиеся объектом переработки).

В настоящее время известно более четырёхсот определений термина "информация". Для примера приведём некоторые из них.

  Информация – это содержание сообщения, сигнала, памяти, а также сведения, содержащиеся в сообщении, сигнале или памяти.2
  Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределённости, неполноты знаний.3
  Информация – это понимание (смысл, представление, интерпретация), возникающее в аппарате мышления человека после получения им данных, взаимоувязанное с предшествующими знаниями и понятиями.4
  Информация – содержание сообщения или сигнала, сведения, рассматриваемые в процессе их передачи или восприятия; одна из исходных общенаучных категорий, отражающая структуру материи и способы её познания, несводимая к другим, более простым понятиям.5

Вышеприведенные определения основного понятия информатики весьма сильно отличаются друг от друга, хотя почти везде постулируется, что информация – это сведения.

Исключительность информации заключается в том, что она проявляется только при наличии объектов находящихся в контакте между собой, причем обмен информацией может совершаться не вообще между любыми объектами, а только между теми из них, которые представляют собой организованную структуру (систему). Элементами этой системы могут быть не только люди: обмен информацией может происходить в животном и растительном мире, между живой и неживой природой, людьми и устройствами.

Информация передается от источника к получателю в материальном мире в виде сигналов (например, электрических, световых, звуковых и т.д.), для его преобразования и передачи, должны существовать носитель информации, передатчик, канал связи, приемник и получатель информации распространяющихся в информационной системе (рис. 1.3).

  Информационная система – взаимосвязанная совокупность средств и методов для хранения, поиска, обработки и выдачи информации.

Канал связи представляет собой среду, в которой происходит передача информации.

Сигнал (от лат. signum – знак) – физический процесс (явление), несущий сообщение (информацию) о событии или состоянии объекта наблюдения.


Рис. 1.3 Информационная система

Подобные информационные системы существуют как в технических системах, так и в человеческом обществе и живой природе. Информационные системы можно разделить на естественные и искусственные. К первым относятся все естественно возникшие системы. Такими системам являются биологические организмы. Искусственными информационными системами являются информационные системы, созданные человеком.

Информация может поступать в непрерывном виде (аналоговом), например звук, свет и т.д., или в виде последовательности отдельных сигналов (дискретном), например, электрические импульсы, компьютерный код и т.д.

Зарегистрированные сигналы называются данными. Для их регистрации с целью хранения и передачи необходим некоторый язык. Этот язык должен быть понятен как отправителю информации, так и ее получателю. Данные могут нести в себе информацию о событиях, происходящих в материальном мире. Однако данные не тождественны информации. Для получения информации нужен метод обработки данных.

Одним из основных параметров информации является её адекватность, т.е. степень соответствия создаваемого с помощью полученной информации образа реальному объекту (процессу, явлению). При оценке информации различают ее синтаксический, семантический и прагматический аспекты:

1. Синтаксическая адекватность касается формальной правильности сообщения с точки зрения синтаксических правил используемого языка безотносительно к его содержанию. В данном аспекте измеряется объем данных (измеряется количеством символов) и количество информации (формула Шеннона).

2. Семантическая (смысловая) адекватность передает смысловое содержание информации и соотносит её с ранее имевшейся информацией. Для этого используется понятие тезаурус пользователя. Тезаурус – это совокупность сведений, которыми располагает пользователь или система.

3. Прагматическая (потребительская) адекватность информации проявляется в возможности её практического использования. Прагматический аспект связан с ценностью, полезностью использования информации потребителем для достижения поставленной цели.

Таким образом, не любое сообщение несет информацию. Для того чтобы сообщение несло некоторую информацию, и было полезно получателю, оно должно быть:

· записано на некотором языке;

· этот язык должен быть понятен получателю;

· получатель должен обладать методом извлечения информации из сообщения;

· сообщение должно снижать степень неопределенности относительно объекта, который интересует получателя;

· сообщение должно помогать ему решить поставленную задачу;

· получатель должен обладать реальной практической возможностью использовать полученную информацию.

Любая информация обладает рядом свойств, с точки зрения информатики наиболее важными представляются следующие:

1. Объективность информации. Понятие объективности информации относительно. Более объективной является та информация, в которую методы обработки вносят меньше субъективности. Например, в результате наблюдения фотоснимка природного объекта образуется более объективная информация, чем при наблюдении рисунка того же объекта. В ходе информационного процесса объективность информации всегда понижается.

2. Полнота информации. Полнота информации характеризует достаточность данных для принятия решения. Чем полнее данные, тем шире диапазон используемых методов их обработки и тем проще подобрать метод, вносящий минимум погрешности в информационный процесс.

3. Достоверность информации. Данные возникают в момент регистрации сигналов, но не все сигналы являются «полезными» – всегда присутствует какой-то уровень посторонних сигналов, в результате чего полезные данные сопровождаются определенным уровнем «информационного шума». Если полезный сигнал зарегистрирован более четко, чем посторонние сигналы, достоверность информации может быть более высокой. При увеличении уровня шумов достоверность информации снижается. В этом случае для передачи того же количества информации требуется использовать либо больше данных, либо более сложные методы.

4. Доступность информации. Это мера возможности получить информацию. Отсутствие доступа к данным или отсутствие адекватных методов их обработки приводят к тому, что информация оказывается недоступной.

5. Актуальность информации. Это степень соответствия информации текущему моменту времени. Поскольку информационные процессы растянуты во времени, то достоверная и адекватная, но устаревшая информация может приводить к ошибочным решениям. Необходимость поиска или разработки адекватного метода обработки данных может приводить к такой задержке в получении информации, что она становится ненужной.

6. Сохранность информации – свойство информации, характеризуемое степенью готовности определенных информационных массивов к целевому применению и определяемое способностью контроля и защиты информации обеспечить постоянное наличие и своевременное предоставление информационного массива, необходимых для автоматизированного решения целевых и функциональных задач системы.

Меры информации. Для автоматизации работы ЭВМ с информацией, относящейся к различным типам, очень важно унифицировать их форму представления – для этого обычно используется прием кодирования.

  Кодирование – это представление сигнала в определенной форме, удобной или пригодной для последующего использования сигнала.

Иначе говоря, это правило, описывающее отображение одного набора знаков в другой набор знаков. Тогда отображаемый набор знаков называется исходным алфавитом, а набор знаков, который используется для отображения, – кодовым алфавитом, или алфавитом для кодирования. При этом кодированию подлежат как отдельные символы исходного алфавита, так и их комбинации. Аналогично для построения кода используются как отдельные символы кодового алфавита, так и их комбинации.

В качестве примера можно привести систему записи математических выражений, азбуку Морзе, морскую флажковую азбуку, систему Брайля для слепых и др.

Какой же язык, какой способ кодирования применить в информатике? Ответ на этот вопрос нашел Клод Элвуд Шеннон ( Claude Elwood Shannon, 1916-2001) – американский математик и электротехник. В своей диссертации, защищенной в 1940 году, он доказал, что работу переключателей и реле в электрических схемах можно представить посредством алгебры, изобретенной в середине XIX века английским математиком Джорджем Булем. "Просто случилось так, что никто другой не был знаком с этими обеими областями одновременно!" – так скромно Шеннон объяснил причину своего открытия.

Количество информации определяется так же через понятие энтропии системы. Энтропия Больцмана – это мера беспорядка. При равновероятном распределении параметров системы (например, направлений движения молекул) энтропия максимальна! При упорядочивании системы (задание определенного направления движения) энтропия уменьшается.

Текст с максимальной энтропией – равновероятное распределение букв – бессмысленное содержание – 0 информации. Теперь пусть в неком информационном сообщении (в SMS – сообщении) случайным образом из-за помех некоторые буквы были заменены. Информация – это нужные, верные, достоверные сигналы – I. Неверные буквы – это шум, беспорядок – H.

H+I=1

Пусть Pi это вероятность того, что система находится в состоянии i. (вероятность того, что буква будет, например «В»). Количество возможных состояний N. Тогда энтропия по Шеннону – это мера недостающей информации которую можно записать формулой. Количество информации можно рассматривать как меру уменьшения неопределенности знания при получении информационных сообщений.

Рассмотрим такой подход к определению понятия информация более подробно. В окружающей действительности достаточно часто встречаются ситуации, когда существует некоторое количество событий, каждое из которых может произойти с определенной вероятностью. Рассмотрим это на простейшем примере «Бросание монеты». Если монету бросить, то выпадает одно из двух событий: «орел» или «решка».

Перед броском существует неопределенность, как упадет монета предсказать невозможно. После броска наступает полная определенность, так как монета находиться в определенном положении (например, «орел»).

Данный подход позволяет измерить количество информации:

N=2I

Где:

N количество возможных информационных сообщений;

I количество информации, которое несет одно сообщение.

Отсюда, I=log2N

В вычислительной технике также существует своя система кодирования – она называется двоичным кодированием и основана на представлении данных последовательностью всего двух знаков: 0 и 1 (используется двоичная система счисления). Эти знаки называются двоичными цифрами, или битами (binary digital).

За единицу количества информации принимается такое количество информации, которое содержится в информационном сообщении, уменьшающем неопределенность знания в два раза. Такая единица названа бит.

  Бит – минимальной единицей измерения количества информации.

Если вернуться к опыту бросания монеты, то здесь неопределенность как раз уменьшается в два раза (из двух возможных событий реализуется одно), и, следовательно, полученное количество информации равно 1 биту.

В информатике наиболее употребляемой единицей измерения количества информации является байт, причем в 1 байт = 8 битов.

  1 байт = 23 бит = 8 битов.

Компьютер оперирует числами не в десятичной системе счисления, поэтому производные единицы измерения количества информации вводятся следующим образом:

  1 Кбайт = 1024 байт. 1 Мбайт = 1024 Кбайт. 1 Гбайт = 1024 Мбайт. 1 Тбайт = 1024 Гбайт. 1 Пбайт (Петабайт) = 1024 Тбайт.

Пример 1.1 В барабане для розыгрыша лотереи находится 32 шара. Сколько информации содержит сообщение о первом выпавшем номере?

Решение: итак, в задаче необходимо найти количество информации, которое содержит сообщение о первом выпавшем номере (шаре), т.е. необходимо найти I. Всего шаров в барабане 32, значит, всего возможных вариантов здесь 32. N = 32.

Отсюда, по формуле находим I.

I = 5 бит.

Пример 1.2. При игре в кости используется кубик с шестью гранями. Сколько бит информации получает игрок при каждом бросании кубика?

Решение: итак, в задаче необходимо найти количество информации, которое получает игрок при каждом бросании кубика, т.е. необходимо найти I. Всего граней у кубика 6, значит, всего возможных вариантов здесь 6. N = 6.

Отсюда, по формуле (2.3) находим I, используя также таблицу логарифмов.

I = 2,585 бит.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



Сейчас читают про: