Свойства функций автоковариации и автокорреляции

1. Максимум функций наблюдается при t= 0. Это очевидно, т.к. при t= 0 вычисляется степень связи отсчетов с собой же, которая не может быть меньше связи разных отсчетов. Значение максимума функции корреляции равно средней мощности сигнала.

2. Функции автокорреляции и автоковариации являются четными: RX(t) = RX(-t). Последнее также очевидно: X(t)X(t+t) = X(t-t)X(t) при t = t-t. Говоря иначе, моменты случайных величин X(t1) и X(t2) не зависят от последовательности, в которой эти величины рассматриваются, и соответственно симметричны относительно своих аргументов: Rx(t1, t2) = Rx(t2, t1), равно как и Kx(t1, t2) = Kx(t2, t1).

3. При tÞ ¥ значения ФАК для сигналов, конечных по энергии, стремятся к нулю, что прямо следует из физического смысла ФАК. Это позволяет ограничивать длину ФАК определенным максимальным значением tmax - радиусом корреляции, за пределами которого отсчеты можно считать независимыми. Интегральной характеристикой времени корреляции случайных величин обычно считают эффективный интервал корреляции, определяемый по формуле:

Tk =2 |rx(t)| dt º (2/Kx(0)) |Kx(t)| dt. (13.7)

Отсчеты (сечения) случайных функций, отстоящие друг от друга на расстояние большее Tk, при инженерных расчетах считают некоррелированными.

Заметим, что для некоррелированных процессов при t Þ ¥ значение Tk стремится к 2, что несколько противоречит физическому смыслу радиуса корреляции, который в этом случае должен был бы стремиться к 1. С учетом последнего, эффективный интервал корреляции целесообразно определять по формуле:

Tk =2 |rx(t)| d1 - t º (2/Kx(0)) |Kx(t)| d1 - t, (13.7')

либо вместо множителя 2 в (9.1.7) использовать множитель 1.

4. Если к случайной функции X(t) прибавить неслучайную функцию f(t), то ковариационная функция не изменяется.

Обозначим новую случайную функцию как Y(t)=X(t)+f(t). Функция математического ожидания новой величины: = + f(t). Отсюда следует, что Y(t) - = X(t) - , и соответственно Ky(t1, t2) = Kx(t1, t2).

5. Если случайную функцию X(t) умножить на неслучайную функцию f(t), то ее корреляционная функция Rx(t1, t2) умножится на f(t1)×f(t2). Обоснование данного свойства проводится по методике, аналогичной предыдущему пункту.

6. При умножении функции случайного процесса на постоянное значение С значения ФАК увеличиваются в С2 раз.

Взаимные моменты случайных процессов второго порядка дают возможность оценить совместные свойства двух случайных процессов X(t) и Y(t) путем анализа произвольной пары выборочных функций xk(t) и yk(t).

Мера связи между двумя случайными процессами X(t) и Y(t) также устанавливается корреляционными функциями, а именно - функциями взаимной корреляции и взаимной ковариации. В общем случае, для произвольных фиксированных моментов времени t1 = t и t2 = t+t:

RXY(t, t+t) = M{X(t) Y(t+t)}. (9.1.8)

KXY(t, t+t) = M{(X(t)-mx(t))(Y(t+t)-my(t+t))}. (13.9)

Взаимные функции являются произвольными функциями (не обладают свойствами четности или нечетности), и удовлетворяют следующим соотношениям:

Rxy(-t) = Ryx(t), (9.1.10)

|Rxy(t)|2 £ Rx(0)Ry(0).

Если один из процессов центрированный, то имеет место Rxy(t) = Kxy(t).

Нормированная взаимная ковариационная функция (функция коэффициентов корреляции двух процессов), которая характеризует степень линейной зависимости между случайными процессами при сдвиге t одного процесса по отношению ко второму, определяется выражением:

rxy(t) = Kxy(t)/(sxsy). (13.11)

Статистическая независимость случайных процессов определяет отсутствие связи между значениями двух случайных величин X и Y. Это означает, что плотность вероятности одной случайной величины не зависит от того, какие значения принимает вторая случайная величина. Двумерная плотность вероятностей при этом должна представлять собой произведения одномерных плотностей вероятностей этих двух величин:

p(x, y) = p(x) p(y).

Это условие является обязательным условием статистической независимости случайных величин. В противном случае между случайными величинами может существовать определенная статистическая связь. Как линейная, так и нелинейная. Мерой линейной статистической связи является коэффициент корреляции:

rxy = [M{X·Y} – M{X}·M{Y}]/ = rxy(0).

Значения rxy могут изменяться в пределах от -1 до +1. В частном случае, если случайные величины связаны линейным соотношением x=ay+b, коэффициент корреляции равен ±1 в зависимости от знака константы а. Случайные величины некоррелированны при rxy=0, при этом из выражения для rxy следует:

M{X·Y} = M{X}·M{Y}.

Из статистической независимости величин следует их некоррелированность. Обратное не очевидно. Так, например, случайные величины x=cosj и y=sin j, где j - случайная величина с равномерным распределением в интервале 0…2p, имеют нулевой коэффициент корреляции, и вместе с тем их зависимость очевидна. Нулевой коэффициент корреляции в данном случае определяется взаимной ортогональностью функций cos j и sin j.

Классификация случайных процессов. Случайные процессы различают по степени однородности их протекания во времени (по аргументу).

Нестационарные процессы. В общем случае значения функций математического ожидания, дисперсии и корреляции могут быть зависимыми от момента времени t, т.е. изменяться во времени. Такие процессы составляют класс нестационарных процессов.

Стационарные процессы. Процесс называют стационарным, если плотность вероятностей процесса не зависит от начала отсчета времени, и если на интервале его существования выполняются условия постоянства математического ожидания и дисперсии, а корреляционная функция является функцией только разности аргументов t= t2-t1, т.e.:

mx(t1) = mx(t2) = mx = = const, (13.12)

Dx(t1) = Dx(t2) = Dx = s2 = const,

Rx(t1, t1+t) º Rx(t2-t, t2) = Rx(t) º Rx(-t),

rx(t) = Кх(t)/Dx, rx(0) = 1, |rx(t)| ≤ 1, rx(-t) = rx(t).

Последние выражения свидетельствует о четности корреляционной (а равно и ковариационной) функции и функции корреляционных коэффициентов. Из него вытекает также еще одно свойство смешанных моментов стационарных процессов:

|Rx(t)| £ Rx(0), |Kx(t)| £ Kx(0) º Dx.

Чем медленнее по мере увеличения значений t убывают функции Кх(t) и rx(t), тем больше эффективный интервал корреляции случайного процесса, и тем медленнее изменяются во времени его реализации.

Среди стационарных процессов выделяют строго стационарные процессы, для которых постоянны во времени не только математическое ожидание, дисперсия и корреляция, но и все остальные моменты высших порядков (в частности, асимметрия и эксцесс).

Стационарные случайные процессы наиболее часто встречаются при решении физических и технических задач. Теория стационарных случайных функций разработана наиболее полно и для ее использования обычно достаточно определения стационарности в широком смысле: случайная функция считается стационарной, если ее математическое ожидание постоянно, а корреляционная функция зависит только от одного аргумента. Случайные процессы, удовлетворяющие условиям стационарности на ограниченных, интересующих нас интервалах, также обычно относят к числу стационарных в широком смысле и называют квазистационарными.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: