Количество информации

С позиции каждого отдельного человека количество информации, со­держащееся в каком-либо сообщении, — субъективная величина.

Объективная количественная мера информации может быть введена на основе вероятностной трактовки информационного обмена.

Этот способ измерения количества информации впервые предложил в 1948 г. К. Шеннон. По К. Шеннону, информация— это сведения, умень­шающие неопределенность (энтропию), существовавшую до их получения.

Количественное описание информации базируется на вероятностном подходе. За единицу информации принимается один бит. Это такое количество информации, получаем в результате реализации одного из двух равновероятных событий, например, при бросании монеты. Термин "бит" произошел от выражения binary digit, что означает "двоичная цифра", то есть принимающая значение 0 или 1.

Один бит информации получает человек, когда он узнает опаздывает с прибытием нужный ему поезд или нет, был ночью мороз или нет, присутствует на лекции студент Иванов или нет и т. д.

Таким образом, применительно к ЭВМ на одном проводе можно реализовать два взаимоисключающих события: есть напряжение и нет напряжения. Следовательно, одним проводом можно передать 1 бит информации.

Более крупная единица информации — байт — равна 8 бит. Проверка присутствия или отсутствия на лекции 24 студентов дает лектору три байта информации. Еще более крупная единица информации — 1 Кбайт — равна 1024 байтам. Далее— 1 Мбайт равен 1024 Кбайтам, 1 Гбайт равен 1024 Мбайтам, а 1 Тбайт равен 1024 Гбайтам.

Для измерения больших объемов информации применяют кратные единицы информации:

1 байт = 8 бит;

1 килобайт (Кб) = 1024 байт;

1 Мегабайт (Мб) = 1024 Кб = 1048576 байт;

1 Гигабайт (Гб) = 1024 Мб = 1048576 Кб.

§2. История развития ЭВМ. Поколения ЭВМ. (Лекция 2)

Связь информации и ЭВМ.

В самом начале лекции стоит провести настойчивую мысль о том, что ЭВМ — это устройство, которое призвано помочь человеку в выполнении рутинной работы. Это всего-навсего инструмент в руках человека, такой же, как калькулятор, станок и т. д. Но пользоваться этим инструментом необходимо уметь. Для этого мы изучаем его в курсе информатики. С помощью ЭВМ можно эффективно обрабатывать большие объемы информации. В связи с этим появляется необходимость изучить само понятие информации. Поэтому-то изучение ЭВМ и понятия информации объединяют в единые предмет "информатика".


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: