Пусть исходное уравнение регрессии
содержит автокорреляцию случайных членов.
Допустим, что автокорреляция подчиняется автокорреляционной схеме первого порядка:
, где
- коэффициент автокорреляции, а
- случайный член, удовлетворяющий предпосылкам МНК.
Данная схема оказывается авторегрессионой, поскольку
определяется значениями этой же величины с запаздыванием, и схемой первого порядка, потому что в этом случае запаздывание равно единице.
Величина
есть коэффициент корреляции между двумя соседними ошибками. Пусть
известно. Преобразуем исходное уравнение регрессии следующим образом:
.
Обозначим:
.
Это преобразование переменных называется авторегрессионым (AR), или преобразованием Бокса-Дженкинса.
Тогда преобразованное уравнение
, где
,
, не содержит автокорреляцию, и для оценки его параметров
используется обычный МНК.
Способ вычисления
и
приводит к потере первого наблюдения. Эта проблема при малых выборках обычно преодолевается с помощью поправки Прайса-Винстена:

Оценка коэффициента
из этой зависимости непосредственно используется и для исходного уравнения, а коэффициент рассчитывается по формуле:
.
На практике величина
неизвестна, ее оценка получается одновременно с оценками
в результате следующих итеративных процедур.
Способы корректировки автокорреляции: алгоритм метода Кохрейна-Оркатта.
1. По выборочным данным выполняется настройка модели, и вычисляется вектор остатков регрессии е = (e1, e2 , …, en)T.
2. По остаткам регрессии оценивается модель авторегрессии et=ρet-1+ vt
3. С оценкой параметра авторегрессии выполняются этап преобразования переменных и определения МНК – оценок вектора параметра β.
4. Строится новый вектор остатков, и процедура повторяется, начиная с п. 2. Интеграционный процесс заканчивается при условии совпадения оценок по последней и предпоследней интерациях с заданной степенью точности.






