Тема 2.Начала общей теории информации. Понятие информации

Информация это совокупность сигналов, воспринимаемых нашим сознанием, которые отражают те или иные свойства объектов и явлений окружающей нас действительности. Природа данных сигналов подразумевает наличие принципиальных возможностей по их сохранению, передаче и трансформации (обработке).

Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача и т.п.) может содержать разное количество информации для разных людей — в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему.

В случаях, когда говорят об автоматизированной работе с информацией посредством каких-либо технических устройств, интересуются не содержанием сообщения, а тем, сколько символов это сообщение содержит.

Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.

Свойства информации (требования к информации). Для того, чтобы информация способствовала принятию на ее основе правильных решений, она должна характеризоваться такими свойствами, как достоверность, полнота, актуальность, полезность, понятность. Обратим внимание еще на такое свойство информации, как адекватность – определенный уровень соответствия создаваемого с помощью полученной информации образа реальному объекту, процессу, явлению и т.п., что позволяет говорить о возможности уточнения, расширения объема информации, приближения в процессе познания к ее большей достоверности.

Кроме восприятия информации с помощью органов чувств при непосредственном контакте с объектами внешнего мира, человек может хранить, обрабатывать информацию, в итоге получать новую и передавать ее другим людям, используя знаковую форму и различные инструментальные средства (в частности, компьютер).

Измерение информации. Эталонным для подсчета количества информации, представленной последовательностью символов, логично считать слово минимальной длины, то есть состоящее из одного символа. Количество информации, содержащееся в слове из одного символа, принимают за единицу. Если мы конструируем сообщения, используя двузначный алфавит из двух цифр 0 и 1, то любая из этих цифр становится эталонной единицей количества информации. Величину, способную принимать лишь два различных значения (0 и 1), называют бит (binarydigit– двоичный знак). Таким образом, бит – минимальная единица количества информации.

Сравнивая с эталоном, можно установить объем (количество) информации, содержащееся в слове, записанном в том же двузначном алфавите. Но при представлении информации в виде последовательности слов, составленных из символов двоичного алфавита, становится невозможным раскодирование, то есть понимание полученной информации. Понять ее можно только при условии наличия соглашения о фиксированной длине последовательностей из 0 и 1, составляющих слово в представленной информации. Такой длиной стали считать восемь символов (нулей и единиц) – 8 бит. Величина количества информации в 8 бит называется байтом. При работе с большими объемами информации для подсчета ее количества удобнее пользоваться более крупными единицами. Например:

1 килобайт (Кбайт) = 1024 байт = 210 байт,

1 мегабайт (Мбайт) = 1024 килобайт =220 байт.

1 гигабайт (Гбайт) = 1024 мегабайт = 230байт

и т. д.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: