Дополнительные свойства информации:
1) Атрибутивное – это неотрывность информации от физического носителя и языковая природа информации.
Хотя информация неотрывна от физического носителя и имеет языковую природу она не связана жестко ни с конкретным носителем, ни с конкретным языком.
а) Дискретность – содержащаяся в информации сведения и знания дискретны, то есть характеризуют отдельные данные, характерности и свойства конкретных объектов.
б) Непрерывность. Информация имеет свойства сливаться с уже зафиксированной и накопленной ранее, способствуя поступательному развитию и накоплению.
2) Прогматические
а) Включают в себя смысл и новизну, что характеризует перемещение информации в социальных комуникациях, выделяет ту или иную ее часть, которая нова для потребителя.
б) Полезность – информация, уменьшающая неопределенность сведений об объекте.
в) Ценность – Различна для различных потребителей и пользователей.
г) Кумулятивность. Характеризует накопление и хранение информации.
|
|
3) Динамическое. Характеризует динамику развития информации во времени.
Информация. Формы сигналов
Формы сигналов:
а) Неприрывные(аналоговые). Аналоговым сигналом называется, если его параметр в заданных пределах может принимать любые промежуточные значения.
б) Прерывистые(дискретные). Дискретным называется сигнал, если его параметр в заданных пределах принимает отдельное фиксированное значение. Замена точного значения его приближенной дискретной величиной при условии, что два ближайших дискретных значения могут различаться не на сколь угодно малую величину, а лишь на конкретную минимальную величину квант, называется квантование, обратный процесс, называется сглаживание.
Информация. Количество информации, равновероятностные события. Энтропия
Формула Хартли, выведенная из вероятностно-статистического подхода К.-Э. Шеннона N=2i, i=log2N, где i – количество информации (в битах), N – количество информационных сообщений (событий). В одном случае рассматриваются равновероятностные события, в другом – мощность алфавита.
Количеством информации называют числовую характеристику сигнала, отражающую степень неопределенности, которая исчезает после получения данного сигнала. Эту меру неопределенности к теории информации называют энтропия.
Энтропия – мера внутренней неупорядоченности системы.
Уменьшая неопределенность мы получаем информацию.