Устранение автокорреляции случайных составляющих

Что можно сделать в отношении автокорреляции?

Во-первых, определить фактор, ответственный за автокорреляцию, и включить его в уравнение регрессии. Но это практически невозможно.

Во-вторых, в случае автокорреляции, подчиненной авторегрессионному процессу 1-го порядка (т. е. ), мы могли бы полностью устранить автокорреляцию, если бы знали величину .

Предположим, что истинная модель задается выражением:

(2.4)

(t = 1; n).

Тогда наблюдение (t – 1) формируется как:

.

Умножим полученное выражение на и вычтем его из обеих частей уравнения (2.4). В результате получим:

. (2.5)

Обозначим

Тогда формулу (2.5) можно переписать как:

.

Значения (случайной составляющей в модели зависимости ut от ut-1) для различных t не зависят друг от друга, поэтому проблемы автокорреляции остатков в полученном уравнении для преобразованных переменных нет. Параметры данного уравнения оцениваются обычным МНК. Получаем оцененную регрессию: .

Затем определяются оценки параметров исходного уравнения регрессии (2.4): . Окончательно оцененное уравнение регрессии будет иметь вид: .

Однако, если в выборке нет данных, предшествующих 1-му наблюдению, мы не можем вычислить значения , . Уменьшение числа степеней свободы на единицу приведет к потере эффективности, которая может в небольших выборках перевесить повышение эффективности от устранения автокорреляции. Эту проблему решают с помощью поправки Прайса-Уинстена: , , .

На практике величина , конечно, неизвестна, его оценка получается одновременно с оценками параметров b0 и b1. В качестве оценки обычно используют выборочный коэффициент автокорреляции остатков 1-го порядка ret,et-1: = ret,et-1.

, ,

где – МНК-оценки параметров b0, b1.

Другой способ оценки используется в методе Кохрейна-Оркатта. Алгоритм метода Кохрейна-Оркатта носит итеративный характер:

1) обычным МНК оценивается регрессия (2.4);

2) вычисляются остатки еt (t = 1; n);

3) оценивается регрессионная зависимость еt от
еt-1: , коэффициент при еt-1, равный , представляет собой оценку ret,et-1;

4) с этой оценкой () уравнение (2.4) преобразуется к виду:

(2.6)

где ;

5) обычным МНК оценивается уравнение (2.6):
. Затем вычисляют оценки параметров исходного уравнения (2.4), как ;

6) повторно вычисляются остатки et и процесс возвращается к этапу 3.

Процесс обычно заканчивается, когда очередное приближение мало отличается от предыдущего. Иногда просто фиксируется количество итераций.

Другой способ оценки – метод Хилдрета-Лу:

Для каждого значения из определенного диапазона с заданным шагом внутри его оценивается преобразованное уравнение регрессии:

(2.7)
где ;

Например, из диапазона от с шагом 0,01.

Значение , которое дает минимальную сумму квадратов отклонений для преобразованного уравнения (2.7), принимается в качестве оценки . Оценки коэффициентов исходного уравнения регрессии (2.4) определяются как .


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: