Понятие количества информации

 

Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения со­общения в виде данного сигнала. Эту меру неопределенности в теории информации называют энтропией. Если в результате получения сообщения достигается полная ясность в каком-то вопросе, говорят, что была получена полная или исчерпывающая информа­ция и необходимости в получении дополнительной информации нет. И, наоборот, если после получения сообщения неопределенность осталась прежней, значит, информации получено не было (нулевая информация).

Для автоматизации работы с данными, относящимися к различным типам, очень важно унифицировать их форму представления. Для этого обычно используется прием кодирования данных, то есть выражение данных одного типа через данные другого типа. Естественные человеческие языки это не что иное, как системы кодирования понятий для выражения мыслей посредством речи. К языкам близко примыкают азбуки (системы кодирования компонентов языка с помощью графических символов). История знает интересные, хотя и безуспешные попытки создания "универсальных" языков и азбук. Та же проблема универсального средства кодирования достаточно успешно реализуется в отдельных отраслях техники, науки и культуры. В качестве примеров можно привести систему записи математических выражений, телеграфную азбуку, морскую флажковую азбуку, систему Брайля для слепых и многое другое.

Система кодировки применяется для замены названия объекта на условное обозначение (код) в целях обеспечения удобной и более эффективной обработки информации. Код строится на базе алфавита, состоящего из букв, цифр и других символов.

Своя система существует и в вычислительной технике, она называется двоичным кодированием и основана на представлении данных последовательностью всего двух знаков: 0 и 1. Эти знаки называются двоичными цифрами, по-английски- binary digit или сокращенно bit ( бит).

Бит минимальная единица количества информа­ции, ибо получить информацию меньшую, чем 1 бит, невозможно. При получении ин­формации в 1 бит неопределенность уменьшается в 2 раза.

Одним битом могут быть выражены два понятия: да или нет, черное или белое, истина или ложь и т. п. Если количество битов увеличить до двух, то уже можно выразить четыре различных понятия: 00 01 10 11. Тремя битами можно закодировать восемь различных значений: 000 001 010 011 100 101 110 111. Увеличивая на единицу количество разрядов в системе двоичного кодирования, мы увеличиваем в два раза количество значений, которое может быть выражено в данной системе, то есть общая формула имеет вид: N=2m, где N – количество независимых кодируемых значений; m разрядность двоичного кодирования, принятая в данной системе.

Байтом называется группа из 8 битов информации. Байт основная единица информации. Существуют производные единицы ин­формации: килобайт (Кбайт, Кб), мегабайт (Мбайт, Мб) и гигабайт (Гбайт, Гб):

1 Кб = 1024 байта = 210 байтов.

1 Мб = 1024 Кбайта = 220 байтов.

1 Гб = 1024 Мбайта = 230 байтов.

Эти единицы чаще всего используют для указания объема памяти ЭВМ.

 


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: