П.1. Понятие об информации. Носители информации. Количественная мера информации. Кодирование информации

Понятие “информация” является одним из основных фундаментальных понятий в современной науке и не может быть строго определено через другие более общие или более простые понятия.

Термин «информация» происходит от латинского слова
informatio, означающего разъяснение, изложение.

В житейском плане мы обычно понимаем под информацией сообщение о состоянии и свойствах объектов, явлений, процессов.

Вся жизнь и деятельность каждого человека и общества в целом тесно связана с процессами восприятия, хранения, переработки и использования информации. С самого раннего детства мы вовлечены в процессы обмена информацией. Вопросы, ответы, улыбки – все это передача информации. Мы получаем информацию, когда читаем газеты, книги, журналы, слушаем товарищей, учителя, родителей и т.д.

Информация имеет форму: форму рассказа, книги, рисунка, музыкального произведения, кино, разговора и др.

Свойства информации:

1. Достоверность – если она отражает истинное положение дел. К чему может привести недостоверная информация? К неправильному пониманию или неправильному принятию решений (например, на бирже).

2. Полнота – если ее достаточно для понимания и принятия решений. Неполнота информации может сдерживать принятие решений или повлечь ошибки.

3. Ценность и актуальность – если информация полезна для принятия решений и поступила вовремя.

4. Ясность – когда информация выражена понятным языком, для тех, кому предназначена эта информация.

Опр 9.1.1 Информатика – это научная дисциплина, изучающая законы и методы накопления, обработки, хранения и передачи информации с помощью электронно-вычислительных машин (ЭВМ).

Хранить информацию можно в двух формах: непрерывной (или аналоговой) и дискретной (рис. 42).

 
 
Рис. 42


Аналоговая форма представления информации (музыка на магнитной ленте) Дискретная форма представления информации (таблица замеров температур)

Первобытные люди, также как и мы с вами, были вовлечены в процессы передачи и переработки информации. Они общались жестами и мимикой, рассказывая друг другу о приближающейся опасности, о поисках пищи и жилья и т.д. Постепенно появилась речь, и обмен информацией стал более живой и ясный. С возникновением письменности информация стала передаваться не только устно или жестами. Умение читать и писать стало признаком грамотности людей. Выражение мыслей в письменной форме открыло возможность накапливать человеческие знания в форме рукописей и рукописных книг, т.е. передавать сокровища человеческой мысли от одного поколения к другому. Изобретение печатных станков в 15 веке открыло возможность издания книг и широкого распространения шедевров человеческой мысли. Изобретение в 19-начале 20 веков телеграфа, телефона, радио и телевидения открыло перед людьми возможность передачи информации на любые расстояния с огромной скоростью. Совершенно новые возможности для поиска и обработки информации открыло перед людьми изобретение в середине 20 века ЭВМ.

Передача информации: жесты, мимика, речь, наскальные рисунки, книги, телеграф, телефон, радио, телевидение, ЭВМ.

Обработка или преобразование информации: фотообработка (сжатие снимаемого на пленку изображения во времени.), телефонная обработка информации, математическая формула (например, нахождение корня из числа. Здесь исходная информация число, результат – корень из этого числа, а вычисление корня – процесс обработки исходной информации до получения результата). Обработкой информации занимается мозг человека, различные технические устройства: микрокалькулятор, игровые автоматы, ЭВМ и др.

Конечно, мозг человека уступает возможностям технических устройств по восприятию и переработке информации. Например, в физике, в процессе эксперимента, который длится некоторое продолжительное время, происходит весьма быстрое изменение сразу многих параметров: температуры, напряжения, частоты колебаний, скорости течения химической реакции и т.д. Для того чтобы уследить за всеми изменениями, потребуется не одна, а несколько пар глаз. Кроме того, эти изменения могут происходить с большой скоростью, так что человек просто не в силах бывает уследить за ними. Если же вся система всевозможных датчиков присоединена к ЭВМ, то она четко фиксирует ход процесса в удобной для человека форме (например, в виде таблиц).

Преобразуя информацию, человеческий мозг и технические устройства ее кодируют. Теория кодирования и древнейшее искусство тайнописи – искусство криптографии – близки друг к другу. Над разработкой различных шрифтов трудились многие ученые: философ Ф.Бэкон, математики Д.Кордано, Д.Валлис. Естественно, что с развитием методов шифровки развивались приемы расшифровки, или криптоанализа. Например, французский математик Ф.Виет (1540-1603) нашел ключ к шифру, которым пользовались испанцы во время войны с французами, и даже сумел проследить за всеми его изменениями. В середине 19 века ситуация изменилась. Появились телефон и искровой телеграф, что поставило перед учеными и инженерами проблему создания теории связи, и, главное, в первую очередь новой теории кодирования.

Первой ориентированной на технику системой кодирования оказалась азбука Морзе, где использовалось двоичное кодирование: точка, тире (короткие и длинные импульсы).

В современной вычислительной технике информация кодируется с помощью сигналов двух видов: высокое или низкое напряжение (двоичное кодирование). Принято обозначать одно состояние цифрой 0 (низкое напряжение), а другое – цифрой 1 (высокое напряжение). Эти цифры 0 и 1 называются битами (от англ. bit – binary digit – двоичная цифра).

При двоичном кодировании текстовой информации каждому символу сопоставляется его код – последовательность из фиксированного количества нулей и единиц. Каждому символу соответствует последовательность из 8 нулей и единиц, называемая байтом (англ. byte). Всего существует разных последовательностей из 8 нулей и единиц (от (00000000)2 до (11111111)2 ) – это позволяет закодировать 256 различных символов (например, большие и малые буквы русского и латинского алфавитов, цифры, знаки препинания и т.д.)

В настоящее время используются 2 международные системы кодирования символьной информации (алфавит английский):

1) EBCDIC (расширенный двоично кодированный десятичный код);

2) ASCII (американский стандартный код для обмена информацией).

Для латинского и русского алфавитов используется отечественный аналог данных кодов:

1) ДКОИ-8 (Двоичный код обмена информации);

2) КОИ-8 (код обмена информацией).

Буква латинская ДКОИ-8 КОИ-8
А    

Коды различных букв различны

Пример: закодировать “МИРУ МИР”

Буква код   буква код
М     И  
Р     У  
Пробел (пустой промежуток)  

Получим последовательность из 64 нулей и единиц:

Т.е., чтобы закодировать эту фразу понадобится 64 бита или 8 байт памяти.

Более крупные единицы информации:

1 Кбайт (1 килобайт) = 210 байт = 1024 байт» 1000 байт = 103 байт

1 Мбайт (1 мегабайт) = 220 байт = 10242 байт = 1048576 байт» 1000000 байт = 106 байт

1 Гбайт (1 гигабайт) =230 байт = 10243 байт» 1000000000 байт = 109 байт

В КОИ-8 каждая буква, знак препинания, пробел – это 1 байт. На страницу учебника помещается 48 строк, в каждой строке – примерно 60 знаков (60 байт). Таким образом, полностью заполненная страница нашего учебника имеет информационный объем 48*60 = 2880 байт» 2,9Кбайта. А если в книге 250 страниц, то примерно 250*2,9=725 Кбайт» 0,7 Мбайт. В БОЛЬШОЙ СОВЕТСКОЙ ЭНЦИКЛОПЕДИИ примерно 120 Мбайт информации. Один цветной кадр телевизора содержит около 1 мегабайта информации, а 1,5 часовой цветной фильм (при частоте 25 кадров в секунду) – 135 гигабайт.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: