Кодирование информации. Системы счисления

Информация

Понятие информации

Непрерывное сообщение может быть представлено непрерывной функцией, заданной на некотором интервале. Непрерывное сообщение можно преобразовать в дискретное (такая процедура называется дискретизацией). Любое непрерывное сообщение может быть представлено как дискретное, иначе говоря, последовательностью знаков некоторого алфавита.

Возможность дискретизации непрерывного сигнала с любой желаемой точностью (для возрастания точности достаточно уменьшить шаг) принципиально важна с точки зрения информатики. Компьютер – цифровая машина, т.е. внутреннее представление информации в нем дискретно. Дискретизация входной информации позволяет сделать её пригодной для компьютерной обработки.

Кодирование информации. Системы счисления.

У понятия «количество информации» существует два основных подхода:

вероятностный – развитый американским математиком Клодом Шенноном;

объёмный – возникший вследствие работ по созданию ЭВМ.

Сообщения обычно содержат информацию о каких – либо событиях. Количество информации для событий с различными вероятностями определяется по формуле Шеннона:

I – количество информации;

N – количество возможных событий;

pi – вероятности отдельных событий.

Если события равновероятны, то количество информации определяется по формуле Хартли:

или из показательного уравнения:

Для количественного выражения любой величины необходимо сначала определить единицу измерения.

За единицу количества информации принят 1 бит – количество информации, содержащееся в сообщении, уменьшающем неопределенность знаний в два раза.

Пример. Определить количество информации, связанное с появлением каждого символа в сообщениях, записанных на русском языке. Будем считать, что русский алфавит состоит из 33 букв и знака «пробел» для разделения слов. Тогда по формуле Хартли
.

Очевидно, что в словах любого языка, различные буквы встречаются с неодинаковой частотой. Воспользовавшись известной таблицей вероятностной частоты употребления различных знаков русского алфавита и формулой Шеннона получим .

Объёмный подход

В двоичной системе счисления знаки 0 и 1 называют битами (от английского выражения Binary digiTs – двоичные цифры). В компьютере бит является наименьшей единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации, подсчитывается просто по числу требуемых для такой записи двоичных символов. При этом, в частности, не возможно нецелое число битов (в отличие от вероятностного подхода).

Для удобства использования введены и более крупные, чем бит, единицы количества информации. Так, двоичное слово из восьми знаков содержит один байт информации.

1 байт=8 битов=23 битов

1 Кбайт=210 байт=1024 байт

1 Мбайт=210 Кбайт=1024 Кбайт

1 Гбайт=210 Мбайт=1024 Мбайт

В прикладной информатике практически всегда количество информации понимается в объёмном смысле.

Контрольные вопросы и задания для самостоятельного выполнения.

1. Какие определения понятия «информации» вы знаете?

2. Назовите основные свойства информации?

3. Каким образом возникает, хранится, обрабатывается и передается информация?

4. Какая форма представления информации ­– непрерывная или дискретная – приемлема для компьютеров и почему?

5. Что такое количество информации?

6. Каковы основные единицы измерения количества информации?

7. Приведите объёмы памяти известных Вам носителей информации.

8. Заполните пропуски числами:

a) 6 Кбайт=__байт=__ бит;

b) __ Кбайт=__байт=12288 бит;

c) __ Кбайт=__байт=215бит;

d) __Гбайт=1536Мбайт= __ Кбайт.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: