Практика

Информация и информационные процессы

Готовимся к ЕГЭ (Крылов С.С.)

ТЕОРИЯ

Понятие информации является основным в теоретической информатике, и как это часто бывает с фундаментальными понятиями, не имеет своего строгого определения. Так, например, в геометрии обычно не дается математического определения исходного понятия «точка». Интуитивно понятно, что под информацией имеются в виду некоторые сведения, которые можно хра­нить, изменять и кому-то сообщать.

Сама по себе информация нематериальна, но она передается с помощью материальных сообщений и может быть представлена в различных материальных формах. Для того, чтобы извлечь информацию из сообщения, нужно знать правила интерпретации (истолкования) сообщений. Правила интерпретации зависят от конкретной ситуации, в которой получено сообщение. Поэтому одно и тоже сообщение может нести различную информацию. Так, например, звонок в школе может означать начало урока или начало перемены. И наоборот, одна и та же информация может быть передана с помощью различных сообщений. Например, текст одного и того же содержания может быть записан на различных языках.

Часто сообщения формируются из отдельных знаков. Такие сообщения называются дискретными. Дискретным сообщениям принадлежит важная роль в процессах обработки информации и мы будем рассматривать только их.

Конечное упорядоченное множество знаков называется алфавитом. Под знаками будем понимать не только буквы и циф­ры, но и любые отличимые друг от друга объекты. Мощностью алфавита называется количество содержащихся в нем знаков.

Примеры алфавитов: алфавит жестов регулировщика движения, алфавит сигналов светофора, алфавит арабских цифр, алфавит русских букв.

Совокупность правил построения сообщений из знаков не­которого алфавита и правил интерпретации этих сообщений на­зывается языком.

Процесс перевода сообщения с одного языка на другой на­зывается кодированием, а сам результат перевода - кодом. Кодирование используется для представления информации в удобной для обработки форме, а иногда - для обеспечения секретности передаваемой информации. В этом случае обычно говорят не «кодирование», а «шифрование».

Особое место в информатике занимают алфавиты, состоя­щие из двух знаков - двоичные алфавиты. Двоичный алфавит замечателен тем, что он является алфавитом минимальной мощ­ности, пригодным для представления информации. В теории ин­форматики доказано, что любые дискретные сообщения можно закодировать с помощью двоичного алфавита. Такое кодирование называется двоичным кодированием, а код - двоичным кодом. Знаки двоичных алфавитов легко представляются в технических устройствах (один знак - нет сигнала, другой знак - есть сигнал), в математике (0 и 1), в логике (истина и ложь).

Если информация представлена в виде дискретного сообщения, то логично считать количеством информации его длину, то есть общее число знаков в сообщении. Но длина сообщения зависит не только от содержащейся в нем информации. На нее влияет мощность алфавита используемого языка. Чем меньше знаков в используемом алфавите, тем длиннее сообщение. Так, например, в алфавите азбуки Морзе всего три знака (точка, тире, пауза), поэтому для кодирования каждой русской или латинской буквы нужно использовать несколько знаков, и текст,, закодированной по Морзе будет намного длиннее, чем при обычной записи.

Пример:

Сигнал SOS: 3 знака в латинском алфавите; 9 знаков в алфавите Морзе: —- - —

Информационный объем сообщений принято измерять в битах. Один бит соответствует одному знаку двоичного алфавита. Итак, чтобы измерить длину сообщения, его нужно представить в двоичном виде и подсчитать количество двоичных знаков - битов. При этом совсем не обязательно уметь интерпретировать со­общения.

Пример: Пусть сообщение в двоичном алфавите, выглядит следующим образом: 111100001111. Мы не знаем, какая информация была заложена в этом сообщении, но можем легко под­считать его длину - 12 двоичных знаков, следовательно его информационный объем равен 12-ти битам.

Такой способ измерения количества информации называется алфавитным подходом. При этом измеряется не содержание информации с точки зрения его новизны и полезности, а размер несущего информацию сообщения. Мы уже убедились, что при алфавитном подходе к определению количества информации, одни и те же сведения, закодированные по-разному будут иметь различный информационный объем. Сообщения одинаковой длины могут нести совершенно как совершенно бесполезные сведения, так и нужную информацию.

Пример: Применяя алфавитный подход, получаем, что информационный объем слов «фыырпбьощ» и «компьютер» совершенно одинаков, а слов «ученик» и «учащийся» — различен.

Если алфавит содержит 2n знаков, то каждый из его знаков можно закодировать с помощью n знаков двоичного алфавита. Таким образом, объем информации, содержащейся в сообщении длиной т при использовании алфавита мощности 2n равен m*n бит.

Пример: Найдем информационный объем слова SOS, записанного в компьютерной кодировке. Если при кодировании букв в компьютере используется алфавит ASCII (American Standard Code for Information Interchange- американский стандартный код обмена информацией) состоящий в русифицированной версии из 28—256 знаков то, информационный объем слова SOS будет равен З *8=24 бит.

Если же при кодировании используется алфавит Unicode, мощности 216 = 65536 знаков, то информационный объем того же слова будет равен 3*16=48 бит.

Алфавитный подход удобен при подсчете количества информации, хранимого, передаваемого и обрабатываемого техническими устройствами. Действительно, устройствам нет дела до содержательной стороны сообщений. Компьютеры, принтеры, модемы работают не с самой информацией, а с ее представлением в виде сообщений. В конечном итоге, оценить информационные результаты их работы, как полезные или бесполезные может только человек.

С точки зрения отдельного человека ценность информации определяется тем, насколько она проясняет для него какой-либо вопрос, то есть уменьшает неопределенность ситуации. При этом количество одной и той же информации может быть оценено различными людьми по-разному. Для объективного измерения количества информации необходимо формализовать задачу.

Будем считать события равновозможными, если мы не располагаем заранее никакой информацией (статистическими данными, логическими умозаключениями и т.д.) в пользу того, что произойдет (или не произойдет) одно или несколько из возможных событий. Так, например, при подбрасывании монеты выпадение орла или решки можно считать равновозможными событиями. Чем больше равновозможных событий, тем больше неопределенность ситуации. Минимальный размер со­общения о том, что произошло одно из двух равновозможных событий равен одному биту. Информацию о том, что произошло первое событие можно закодировать в двоичном алфавите нулем, а о том, что произошло второе событие - единицей.

Итак, для уменьшения неопределенности в два раза (вместо двух возможных событий - одно реально произошедшее) требуется один бит информации. Иначе говоря, сообщение, уменьшающее неопределенность ситуации в два раза несет один бит информации.

Можно рассчитать длину сообщения в двоичном алфавите, необходимую для передачи информации. Для уменьшения неопределенности ситуации в 2n раз необходимо n бит информации.

Если используется алфавит, состоящий не из двух, а из 2n знаков, то каждый знак несет информацию, уменьшающую неопределенность ситуации в 2n раз. Таким образом, сообщение из m знаков позволяет уменьшить неопределенность в (2n)m = 2nm раз, то есть его информационный объем равен m*n бит, что согласуется с результатом, полученным при использовании алфавитного подхода.

Для удобства, помимо бита используются более крупные единицы измерения количества информации. Вот соотношения между ними:

1 байт = 23 бит = 8 бит

1 килобайт (Кб) = 210 бит = 1024 бит

1 мегабайт (Мб) = 1024 Кб

1 гигабайт (Гб) = 1024 Мб

1 терабайт (Тб) = 1024 Гб

То, что отношения между единицами измерения кратны степеням 2, объясняется большим теоретическим и практическим значением двоичного кодирования в информатике.

ПРАКТИКА

Подчеркните значения, соответствующие равным объемам информации

а) 0,5 Мб 6)2 Мб в) 2 Кб г) 1 Мб

2048 Кб 2048 Кб 2048 бит 1024 Кб

512 бит 512 бит 512 Мб 512 бит

1024 байт 1024 байт 2048 байт 1 000 000 байт

2Гб 4 Гб 0,02 Гб 8 Гб

Пример:

Какое количество информации (в битах) несет сообщение об одном из 16 равновозможных ходов шахматиста?

Решение:

Мы имеем 16 равновозможных событий. Известно, что для уменьшения неопределенности ситуации в 2" раз необходимо п бит информации. В нашем случае выбор шахматистом одного из равновозможных ходов уменьшает неопределенность в 16 раз, т.е. 2n= 16, отсюда n = 4.

Ответ: 4.

n                    
                     

Примечание: Вообще, для того, чтобы из уравнения 2х = р, найти х, при известном р, существует понятие двоичного лога­рифма числа р (х — log2 р), т.е. такого числа х, что два, будучи возведенным в степень х станет равным р. Поскольку не исклю­чено, что выполнять задания из этой рабочей тетради вам придет­ся раньше, чем вы изучите логарифмы на уроках математики, то в дальнейшем понятие логарифма мы использовать не будем, но для решения в уме уравнений вида 2х = р, где р - целая степень двойки, вам придется выучить наизусть таблицу её целых степе­ней до 10-й включительно.

Также полезно запомнить формулы (an)m=anm an+m=anam, справедливые, конечно же, и при а = 2.

а) Какое количество информации (в битах) несет сообщение об одном из 4 равновозможных ходов шахматиста?

в) Какое количество информации (в битах) несет сообщение о выпадении выигрыша на 1 из 1024 номеров лотереи?

г) Какое количество информации (в байтах) несет сообще­ние о выпадении выигрыша на 1 из 256 номеров лотереи?

Пример:

Зрительный зал имеет прямоугольную форму и состоит из 16 рядов по 32 места в каждом. Сколько бит информации содержится в сообщении о том, что гражданин X забронировал одно конкретное место в зале?

Решение:

Всего в зале 16*32 = 24*25 = 29мест, следовательно, сообще­ние, о том, что забронировано одно из мест содержит 9 бит.

3.

а) Зрительный зал имеет прямоугольную форму и состоит из 8 рядов по 16 мест в каждом. Сколько бит информации содер­жится в сообщении о том, что гражданин N забронировал одно конкретное место в зале?

б) Зрительный зал имеет прямоугольную форму и состоит из 64 рядов по 32 места в каждом. Сколько бит информации со­держится в сообщении о том, что гражданин N забронировал од­но конкретное место в зале?

в) Зрительный зал имеет прямоугольную форму и состоит из 16 рядов по 16 мест в каждом. Сколько бит информации со­держится в сообщении о том, что гражданин N забронировал од­но конкретное место в зале?

г) Зрительный зал имеет прямоугольную форму и состоит из 32 рядов по 32 места в каждом. Сколько бит информации содер­жится в сообщении о том, что гражданин X забронировал одно конкретное место в зале?

д) Сообщение кодируется последовательностью флажков, поочередно поднимаемых и опускаемых сигнальщиком. Переда­вая сообщение, сигнальщик поднимал флажки 3 раза. Сколько бит информации содержалось в переданном сообщении, если в набор сигнальщика входило 16 флажков.

е) Сообщение кодируется последовательностью флажков, поочередно поднимаемых и опускаемых сигнальщиком. Переда­вая сообщение, сигнальщик поднимал флажки 4 раза. Сколько бит информации содержалось в переданном сообщении, если в набор сигнальщика входило 16 флажков.

ж) Сообщение кодируется последовательностью ракет, поочередно выпускаемых сигнальщиком. Передавая сообщение, сигнальщик выпустил ракеты 3 раза. Сколько бит информации содержалось в переданном сообщении, если в набор сигнальщика входили ракеты четырех цветов?

з) Сообщение кодируется последовательностью ракет, поочередно выпускаемых сигнальщиком. Передавая сообщение, сигнальщик выпустил ракеты 4 раза. Сколько бит информации содержалось в переданном сообщении, если в набор сигнальщика входили ракеты четырех цветов?

Пример:

Метеорологическая станция ведет наблюдение за температурой воздуха. Результатом каждого измерения температуры является целое число в диапазоне от -50 до 50 включительно, записываемое при помощи минимально возможного количества бит, одинакового для каждого значения температуры. За сутки станция делает 20 измерений. Каков информационный объем суточных измерений станции в битах.

Решение.

В диапазоне от -50 до 50 содержится 101 целое число. Ближайшая к 101 степень двойки, не меньшая 101 равна 128 = 27. Таким образом, минимальное количество бит для записи каждого измерения равно 7. Действительно в семи битах мы можем закодировать 128 значений температуры, что больше, чем 101. Заметим, что шести битов было бы недостаточно для кодирования 101 значения температуры, так как 26= 64<101.

Информационный объем суточных измерений станции равен 7*20 = 140 бит.

4.

а) Метеорологическая станция ведет наблюдение за температурой воздуха. Результатом каждого измерения температуры является целое число в диапазоне от -40 до 40 включительно, за­писываемое при помощи минимально возможного количества бит, одинакового для каждого значения температуры. За сутки станция делает 40 измерений. Каков информационный объем су­точных измерений станции в байтах?

в) Метеорологическая станция ведет наблюдение за направлением ветра. Фиксируются следующие направления ветра: северный, южный, восточный, западный, северо-восточный, северо-западный, юго-восточный, юго-западный. Каждое направление кодируется при помощи минимально возможного количества бит, одинакового для каждого направления. За сутки станция делает 40 измерений. Каков информационный объем суточных из­мерений станции в байтах?

г) Метеорологическая станция ведет наблюдение за влажностью воздуха. Результатом каждого измерения является целое число в диапазоне от 0% до 100% включительно, записываемое при помощи минимально возможного количества бит, одинакового для каждого значения. За сутки станция делает 25 измере­ний. Каков информационный объем суточных измерений станции в битах?

Пример (Задание из проекта демоверсии 2010 г.).

В некоторой стране автомобильный номер состоит из 7 символов. В качестве символов используют 18 разл ич ных букв и десятичные цифры в любом порядке. Каждый такой номер в компьютерной программе записывается минимально возможным и одинаковым целым количеством байтов, при этом используют посимвольное кодирование и все символы кодируются одинаковым и минимально возможным количеством битов.

Определите объем памяти, отводимый этой программой для записи 60 номеров.

1) 240 байт 2) 300 байт 3) 360 байт 4) 420 байт


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: