Математические модели источников информации и сообщений

Источники информации имеют различную физическую природу, отличаются по виду формируемых сообщений, энергетической активности, вероятностным характеристикам. Для анализа интерес представляют не только характеристики определенных сообщений, но и потоки сообщений, как специфический случайный процесс. В ИС информация с носителей различной физической природы (голос, изображение, символы на бумаге, ленте, вибрации и т.п.) преобразуются к универсальному виду и фиксируются на универсальных носителях.

В качестве универсального носителя используется электрический сигнал(или материалы, обладающие электромагнитными свойствами, позволяющие просто снимать с них информацию в виде электрических сигналов). Электрические сигналы являются переносчиками информации, а материалы – носители информации выполняют функции хранения ее.

Определение 1. Сигналом называется изменяющаяся физическая величина, являющаяся переносчиком информации.

Преобразование признаков любой физической природы в электрический сигнал можно рассмотреть на примере работы микрофонной цепи телефонного аппарата (Рис. 4.1.).

U(t)

l М Zн

               
   
   
 
       
 
 


t

Рис. 4.1. Рис. 4.2.

Звуковая энергия l говорящего в виде переменного давления с(t) воздействует на микрофон, содержащий внутри угольный порошок. Из-за этого меняется электрического сопротивление микрофона и, как следствие, ток U(t) повторяет звуковые колебания с(t).

Подобные преобразования могут осуществляться с использованием цепи переменного тока путем воздействия на индуктивность или емкость колебательного контура, в результате чего параметры колебательного процесса преобразуют закономерности воздействующего процесса.

В ряде датчиков улавливается оптическое (тепловое, инфракрасное) излучение, которое переносится в пространстве с помощью оптики, а затем преобразуется в электрические сигналы. В таких датчиках могут быть объединены механическая, оптическая и электронная части, а также согласующие и синхронизирующие устройства.

Если исходное сообщение представляло собой некоторую функцию с(t), то электрический сигнал

,

где Fc[c(t)] – оператор преобразования, должен повторять закон изменения с(t) в изменениях своего информационного параметра, которым на этом этапе преобразования является чаще всего величина мгновенного значения электрического тока(или напряжения). Сигнал U(t) называют «видеосигналом» из-за наличия в нем постоянной составляющей. На практике добиваются практически абсолютного сходства функций с(t) и U(t) при любой сложности их (или с точностью до масштабного множителя). Поэтому их математические модели одинаковы.

С целью упрощения анализа сигналы с(t) произвольной сложности представляют в виде суммы элементарных колебаний h (t), называемых базисными функциями,

, (4.1)

где ск – коэффициенты.

В качестве базисных функций могут использоваться многие известные системы функций(Фурье, Бесселя, Лежандра, Чебышева, Уолша и д.р.).

В технике связи используется в основном преобразование Фурье, в которых базисными являются гармонические колебания, и разложения Котельникова, в которых базисными являются функции вида sinx/x.

Преобразования Фурье позволяют перевести сообщения произвольной формы в совокупность элементарных гармонических колебаний. При этом анализ преобразований сигнала сводится к анализу изменений параметров гармонических колебаний (как элементарных «кирпичиков» сложного объекта).

Наиболее известны гармонические ряды Фурье:

, (4.2)

где W=2p/Т, Т- период.

Для непериодических функций Фурье установил соответствие между временными и спектральными характеристиками:

, (4.3)

где s(t)- временная функция, S(iw)- спектральная плотность.

Пару преобразований (4.3.) кратко обозначают в виде: S(iw) s(t).

Можно показать, что

.

- действительная часть спектральной плотности. - мнимая часть спектральной плотности.

- амплитудная характеристика спектральной плотности (АЧХ)- характеризует распределение по частотному спектру амплитуд гармоник.

- фазовая характеристика спектральной плотности (ФЧХ)- характеризует распределение по спектру фаз гармоник.

Теорема Парсеваля устанавливает распределение энергии по спектру:

, (4.4)

где - энергетическая спектральная плотность сигнала.

Весьма важными являются следующие свойства преобразований Фурье:

Преобразования Фурье линейны

если s(t)=s1(t)+ s2(t)+×××+ sp (t),

то S(iw)= S1(iw)+ S2(iw)+×××+ Sp(iw).

Теорема запаздывания.

Если S(iw) «s(t), то для s(t-t0.

Спектр задержанного на t0 сигнала отличается от исходного сдвигом фаз гармоник на величину y=-wt0.

Обратно: если всем составляющим спектра функции s(t) дать сдвиг на –wt0, то функция преобразуется в s(t-t0).

Теорема смещения.

Если S(iw) «s(t), то для функции, смещенной по спектру на величину w0

, спектр равен , то есть все спектральные характеристики исходной функции смещаются на w0.

Преобразования Фурье проводят анализ сообщений и сигналов в частотную область. Для исследования сигналов во временной области применяется разложение Котельникова В.А. (теория отсчетов).

Теорема Котельникова гласит:

Если функция s(t) не содержит частот выше Fm, то она полностью определяется последовательностью своих значений в моменты, отстающие друг от друга на . (см. Рис. 4.3.)

s(t)

 
 


t

∆t

(Рис. 4.3.)

В формализованном виде:

, (4.5.)

где wm=2pFm.

Для сообщений (сигналов) с ограниченной длительностью T и полосой Fm число учитываемых отсчетов

(4.6)

В большинстве случаев >>1, поэтому

N=2FmT. (4.7)

Число N называют базой сигнала, или числом степеней свободы его. Оно определяет потенциальные возможности сигнала по переносу информации.

Энергия сигнала, выраженная через свои отсчеты по Котельникову, равна

, (4.8)

где - средняя мощность отсчета.

По теореме Котельникова можно представлять функции от любого параметра, не только от времени. В частности, можно представить рядом Котельникова спектральную плотность S(iw):

Если длительность сигнала не превышает Т, то спектральная плотность сигнала S(iw) полностью определяется последовательностью своих значений в точках на оси частот, отстающих одна от другой на расстоянии.

Относительно исходной теоремы здесь произошла замена параметров: t на w, ∆t на ∆w, wm на T/2.

Таким образом, математические модели сообщений и видеосигналов имеют одинаковую структуру и параметры и пригодны для анализа непрерывных и дискретных сообщений. Однако в них не учитывается корреляционные связи между сообщениями, существующие в языках общения людей. Корреляция (взаимосвязь) существует не только между соседними сообщениями. Она охватывает ν сообщений, что приводит к информационной избыточности.

Избыточность оценивается коэффициентом:

(4.9)

где энтропия системы сообщений при наличии взаимосвязи между ν сообщениями.

Исследования показали, что в русском языке при учете взаимосвязи только между соседними сообщениями (буквами алфавита) H1(x)=4.05 бит/сообщение. При ν=2 величина H2(x)=3,52 бит/сообщение. При ν=3 величина H3(x)=2,97 бит/сообщение. А при независимых сообщениях H0(x)=5 бит/сообщение. Поэтому R1(x)≈19%; R2(x)≈ 30%; R3(x)≈41%. Наличие естественной избыточности языка повышает помехоустойчивость сообщений при передаче их, но неэкономично расходует канальные ресурсы, объемы машинной памяти, время на анализ при обработке и т.д.

Исследование источников информации с корреляционными сообщениями удобно проводить с использованием аппарата цепей Маркова. Марковские источники характеризуются состоянием и правилами перехода из одного состояния в другое. Для них характерно, что вероятность любого состояния системы в будущем зависит только от состояния ее в настоящий момент и не зависит от того, каким образом система пришла в это состояние, то есть не зависит от предыстории.

Если передаются буквы, то состояние источника сообщений определяется передаваемой буквой: состояния SА, SБ,…, SЯ. Например, говорят, что источник находится в состоянии передачи буквы Д, Ш или Ю. Вероятность появления последующей буквы зависит только от настоящего состояния. Вероятности переходов из состояния в состояние удобно анализировать на диаграммах (Рис. 4.4).

P(A/A) Р(Я/А)

P(Б/А) Р(Я/Б)

SА SБ SЯ

Рис. 4.4

Вероятность перехода, например Р(Я/А) – из состояния SА в состояние SЯ – отличается от Р(Я/Б).

Если вероятность появления букв не меняется от состояния, то можно говорить о том, что источник находится в одном стабильном состоянии S и корреляционных связей между сообщениями нет.

В этом случае диаграмма состояний имеет вид, показанный на рис. 4.5:

P(A) P(1)

P(Б)

S или S

Р(Я) P(0)

Рис. 4.5.

Если в системе с двумя состояниями (1 и 0) вероятности появления единиц и нулей различны, то диаграмма будет другой (рис. 4.6)

Р(0/0) Р(1/0) Р(1/1)

S0 S1

P(0/1)

Рис. 4.6.

Для анализа подобных источников надо знать вероятности состояний P(Sk) и вероятности переходов P(xi/Sk) для всех i и k.

Для бинарной системы, когда х1=0, х2=1, P(х1)=P(S1); P(х2)=P(S2), энтропия источника определяется следующим образом. Сначала фиксируется состояние S1 и определяется условная энтропия

,

потом аналогично определяется условная энтропия

.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: