Корректировка (очистка) автокорреляции

Зная последствия автокорреляции, особенно отсутствие эффективности у оценок МНК, возможно, что нам понадобится исправить эту проблему. Такое исправление, зависит от знания природы зависимости нарушений друг от друга, т.е. знание о структуре автокорреляции.

Рассмотрим регрессию для двух переменных:

(1)

и будем считать, что остатки подчиняются авторегрессионной схеме первого порядка:

(2)

Теперь рассмотрим два случая: (1) значение коэффициента автокорреляции первого порядка известно и (2) значение не известно, но должно быть оценено.

Когда значение известно

Если коэффициент автокорреляции первого порядка известен, то проблема автокорреляции может быть легко решена. Если (1) справедливо в момент времени t, это также справедливо в момент времени . Следовательно,

. (3)

Умножая (3) на с обеих сторон получаем:

. (4)

Затем вычитаем выражение (4) из выражения (1)

, (5)

где .

Мы можем представить (5) в следующем виде:

, (6)

где , , , и .

Так как остаточный член удовлетворяет стандартным предпосылкам для применения МНК, то мы можем применить МНК для преобразованных переменных и , и получить оценки со всеми оптимальными свойствами, т.е. BLUE -оценки.

По сути, (6) равносильно использованию обобщенных наименьших квадратов (GLS). Напомним, что ОМНК ни что иное как применение МНК применительно к преобразованной модели, удовлетворяющей классическим предпосылкам применимости МНК.

Регрессия (5) известна как обобщенное или мнимое разностное уравнение.

Она включает регрессию Y по X не в первоначальном виде, а в форме разности, которая получается путем вычитания доли (= ) значения переменной в предыдущий период времени от его значения в текущий период времени.

При проведении этой процедуры мы теряем одно наблюдение, поскольку наше первое наблюдение не имеет предшествующих.

Чтобы избежать потерю этого наблюдения, его изменяют следующим образом и по Y и по X: и . Эта изменение известно как преобразование Прайса-Винсента (Prais—Winsten transformation). [1]

Когда значение неизвестно

Определение на основе Статистики Дарбина–Уотсона

Статистика Дарбина–Уотсона тесно связана с коэффициентом корреляции между соседними отклонениями через соотношение:

Преобразовав выражение, имеем:

Этот метод оценивания весьма неплох при большом числе наблюдений. В этом случае оценка параметра будет достаточно точной.

Оценивание неизвестного Процедура сканирования, или поиска, Хилдрета-Лу.

Так как в авторегрессионной схеме первого порядка:

предполагается, что коэффициент автокорреляции первого порядка лежит в пределах от –1 до +1, Хилдрет и Лу предложили метод систематического «сканирования» или процедуру поиска, чтобы найти его. Они рекомендуют выбирать значение между –1 и +1, используя, скажем, интервалы по 0,1 единицы и преобразуя данные с помощью обобщенного разностного уравнения (5). Таким образом, можно выбрать от . Для каждого выбранного рассматриваем обобщенное разностное уравнении и получаем соответствующие RSS: . Хилдрет и Лу предложили выбирать такое, чтобы сумма квадратов остатков была минимальной, следовательно, увеличивающей . Если дальнейшее уточнение необходимо, то они предлагают использовать меньшие интервалы, скажем, по 0,01 единицы, такие как и так далее. [1]

Пример. Рассмотрим действие процедуры Хилдрета–Лу на нашем примере, используя данные таблиц 1 и 2.

Согласно алгоритму процедуры Хилдрета–Лу, выбираем значения в пределах от –1 до +1, и для каждого значения рассчитываем сумму квадратов отклонений. Поскольку после проведения процедуры Дарбина (описана выше) нам известно, что приблизительно равен 0,9265, «просканируем» участок вблизи этого значения для выявления более точного значения , то есть найдем .

,

где , , , и .

«Сканирование» показало, что при

Поскольку при значение минимально при заданной точности, продолжаем процедуру сканирование вблизи значения 0,9 с большей точностью.

«Сканирование» показало, что при

Поскольку при значение минимально при заданной точности, продолжаем процедуру сканирование вблизи значения 0,90 с большей точностью.

«Сканирование» показало, что при

Поскольку при значение минимально при заданной точности, продолжаем процедуру сканирование вблизи значения 0,901 с большей точностью.

«Сканирование» показало, что при

Поскольку при значение минимально при заданной точности, продолжаем процедуру сканирование вблизи значения 0,9016 с большей точностью.

«Сканирование» показало, что при

Процедура сканирования Хилдрета–Лу показала, что на заданном уровне точности, значение , так как при таком значении сумма квадратов остатков минимальна, то есть коэффициент будет максимальным.

Оценивание неизвестного : Итеративная процедура Кохрейна—Оркатта.

Чтобы проиллюстрировать данную процедуру, рассмотрим двухфакторную модель:

(7)

и авторегрессионную схему первого порядка AR(1):

, (8)

Для оценивания ρ, согласно данной процедуре, следует выполнить следующие шаги:

  1. Оценить (7) с помощью обычного МНК и получить, таким образом, остатки . Следует отметить, что в модели может быть более одной объясняющей переменной X.
  2. Используя остатки, полученные на шаге 1, построим следующую регрессию:

, (9)

которая является эмпирическим аналогом (7).

  1. Используя полученное в (9) значение , оценим обобщенное разностное уравнение (6).
  2. Поскольку, априори, неизвестно, является ли , полученное в (9), наилучшей оценкой , заменим значение и , полученные на шаге 3, в первоначальном уравнении (7) и получим, таким образом, новые остатки , как

(10)

Эти остатки могут быть легко найдены, поскольку , , и известны.

  1. Далее оценим следующую регрессию:

, (11)

которая аналогична (9) и дает следующее (второе) приближение .

Поскольку мы не знаем, является ли эта вторая оценка наилучшей оценкой истинного , следует сделать следующее (третье) приближение по такому же принципу, и так далее. Вот почему, процедура Кохрейна–Оркатта называется итеративной. Но как долго нам нужно делать эти «веселые» преобразования? Основная рекомендация — заканчивать процедуру, когда очередное приближение мало отличается от предыдущего, например, менее 0,01 или 0,005. [1]

Пример. Рассмотрим действие процедуры Кохрейна–Оркатта на нашем примере, используя данные из таблиц 1 и 2.

Выполнить следующие шаги, согласно алгоритму, приведенному выше:

1. Значения остатков , полученные при оценивании регрессии (доходы — продуктивность) с помощью обычного МНК, представлены в таблице 2.

2. Используя остатки, полученные на шаге 1, построим регрессию вида (9) в программе Statistica 6.1 (рис. 10).


Рис. 10. Результаты оценивания параметров регрессии в программе Statistica 6.1

  1. Используя полученное в регрессии значение, оценим обобщенное разностное уравнение вида (6). Расчеты представлены в таблице 4.

Табл. 4.

T Y X Yt-1 Xt-1 ρYt-1 ρXt-1 Yt-ρYt-1 Xt-ρXt-1
  58,5 47,2 -4,81561 3,0242
  59,9   -3,98460 -4,81561 58,5 47,2 52,552 42,401 7,3478 5,598885
  61,7 49,8 -3,46483 -3,98460 59,9   53,81 43,12 7,8901 6,680222 0,7112
  63,9 52,1 -2,90068 -3,46483 61,7 49,8 55,427 44,737 8,4731 7,36323  
  65,3 54,1 -2,92316 -2,90068 63,9 52,1 57,403 46,803 7,8968 7,297074
  67,8 54,6 -0,77878 -2,92316 65,3 54,1 58,661 48,6 9,1391 6,000416
  69,3 58,6 -2,12374 -0,77878 67,8 54,6 60,907 49,049 8,3933 9,551252
  71,8   -1,33072 -2,12374 69,3 58,6 62,254 52,642 9,5458 8,357937
  73,7 62,3 -0,35534 -1,33072 71,8   64,5 54,798 9,2 7,501948
  76,5 64,5 0,87994 -0,35534 73,7 62,3 66,207 55,966 10,293 8,534121
  77,6 64,8 1,76656 0,87994 76,5 64,5 68,722 57,942 8,8779 6,857798
    66,2 2,17083 1,76656 77,6 64,8 69,71 58,212 9,2897 7,988299
  80,5 68,8 1,8216 2,1708   66,2 70,968 59,469 9,532 9,330639
  82,9   2,65688 1,82160 80,5 68,8 72,315 61,805 10,585 9,194984
  84,7 73,1 2,96326 2,65688 82,9   74,471 63,781 10,229 9,318661
  83,7 72,2 2,60338 2,96326 84,7 73,1 76,088 65,668 7,6116 6,532171
  84,5 74,8 1,55416 2,60338 83,7 72,2 75,19 64,859 9,3099 9,940667
    77,2 2,34718 1,55416 84,5 74,8 75,909 67,195 11,091 10,00501
  88,1 78,4 2,59369 2,34718   77,2 78,155 69,351 9,9454 9,049023
  89,7 79,5 3,41132 2,59369 88,1 78,4 79,143 70,429 10,557 9,071029
    79,7 3,56908 3,41132 89,7 79,5 80,58 71,417 9,4199 8,282867
  89,7 79,8 3,19795 3,56908   79,7 80,85 71,597 8,8504 8,203201
  89,8 81,4 2,15997 3,19795 89,7 79,8 80,58 71,687 9,2199 9,713368
  91,1 81,2 3,60222 2,15997 89,8 81,4 80,67 73,124 10,43 8,076043
  91,2   1,71074 3,60222 91,1 81,2 81,838 72,944 9,3623 11,05571
  91,5 86,4 0,30376 1,71074 91,2   81,928 75,46 9,5724 10,94039
  92,8 88,1 0,39466 0,30376 91,5 86,4 82,197 77,616 10,603 10,4844
  95,9 90,7 1,64543 0,39466 92,8 88,1 83,365 79,143 12,535 11,55724
  96,3 91,3 1,61869 1,64543 95,9 90,7 86,15 81,478 10,15 9,821585
  97,3 92,4 1,83633 1,61869 96,3 91,3 86,509 82,017 10,791 10,38259
  95,8 93,3 -0,30379 1,83633 97,3 92,4 87,407 83,006 8,3926 10,29443
  96,4 94,5 -0,55728 -0,30379 95,8 93,3 86,06 83,814 10,34 10,68593
  97,4 95,9 -0,55302 -0,55728 96,4 94,5 86,599 84,892 10,801 11,00794
      -0,86910 -0,55302 97,4 95,9 87,497 86,15 12,503 13,85028
  99,9 100,1 -1,04023 -0,86910     89,833 89,833 10,067 10,26713
  99,7 101,4 -2,16484 -1,04023 99,9 100,1 89,743 89,923 9,957 11,4773
  99,1 102,2 -3,33383 -2,16484 99,7 101,4 89,563 91,091 9,5366 11,10947
  99,6 105,2 -4,96755 -3,33383 99,1 102,2 89,024 91,809 10,576 13,39081
  101,1 107,5 -5,10341 -4,96755 99,6 105,2 89,474 94,504 11,626 12,99582
  105,1 110,5 -3,23713 -5,10341 101,1 107,5 90,821 96,57 14,279 13,92966

4. Поскольку, априори, неизвестно, является ли , полученное на шаге 2, наилучшей оценкой , заменим значение и , полученные на шаге 3, в первоначальном уравнении (7) и получим, таким образом, новые остатки , как . Результаты шага 4 представлены в таблице 5.


Табл. 5.

T Y X
  58,5 47,2 3,024217 21,90523  
  59,9   22,73624 21,90523
  61,7 49,8 0,711241 23,256 22,73624
  63,9 52,1   23,82015 23,256
  65,3 54,1 23,79767 23,82015
  67,8 54,6 25,94205 23,79767
  69,3 58,6 24,59709 25,94205
  71,8   25,39011 24,59709
  73,7 62,3 26,3655 25,39011
  76,5 64,5 27,60077 26,3655
  77,6 64,8 28,4874 27,60077
    66,2 28,89166 28,4874
  80,5 68,8 28,54243 28,89166
  82,9   29,3777 28,54243
  84,7 73,1 29,6841 29,3777
  83,7 72,2 29,32422 29,6841
  84,5 74,8 28,27499 29,32422
    77,2 29,06801 28,27499
  88,1 78,4 29,31452 29,06801
  89,7 79,5 30,13216 29,31452
    79,7 30,28991 30,13216
  89,7 79,8 29,91879 30,28991
  89,8 81,4 28,8808 29,91879
  91,1 81,2 30,32305 28,8808
  91,2   28,43158 30,32305
  91,5 86,4 27,0246 28,43158
  92,8 88,1 27,11549 27,0246
  95,9 90,7 28,36627 27,11549
  96,3 91,3 28,33952 28,36627
  97,3 92,4 28,55716 28,33952
  95,8 93,3 26,41704 28,55716
  96,4 94,5 26,16355 26,41704
  97,4 95,9 26,16782 26,16355
      25,85173 26,16782
  99,9 100,1 25,68061 25,85173
  99,7 101,4 24,55599 25,68061
  99,1 102,2 23,387 24,55599
  99,6 105,2 21,75328 23,387
  101,1 107,5 21,61743 21,75328
  105,1 110,5 23,4837 21,61743

5. Используя остатки , полученные на шаге 4, построим регрессию вида (9) в программе Statistica 6.1 (рис. 11).

Рис. 11. Результаты оценивания параметров регрессии в программе Statistica 6.1

Таким образом, получено второе приближение . Повторяя шаги 1–5, было получено третье приближение . Поскольку третье приближение ничем не отличается от второго, то нет смысла продолжать процедуру Кохрейна–Оркатта. Следовательно, примем значение как конечное оцененное значение.

Теперь проверим на наличие автокорреляции, преобразованное с помощью полученного , уравнение регрессии вида (6). Используя колонки 10 и 11, таблицы 4 построим, с помощью программы Statistica 6.1 регрессию по . Расчеты представлены на рис. 12 и в таблице 6.

Рис. 12. Результаты оценивания параметров регрессии в программе Statistica 6.1

Табл. 6.

7,3478 5,598885 -0,48431
7,8901 6,680222 -0,49743 -0,48431 0,00017212 0,24743
8,4731 7,36323 -0,26526 -0,49743 0,05389966 0,07036
7,8968 7,297074 -0,80760 -0,26526 0,29413354 0,65222
9,1391 6,000416 1,10080 -0,80760 3,64200735 1,21176
8,3933 9,551252 -1,46901 1,10080 6,60390802 2,15798
9,5458 8,357937 0,29648 -1,46901 3,11694152 0,08790
9,2 7,501948 0,39036 0,29648 0,00881357 0,15238
10,293 8,534121 0,95333 0,39036 0,31693646 0,90884
8,8779 6,857798 0,39910 0,95333 0,30717156 0,15928
9,2897 7,988299 0,23023 0,39910 0,0285187 0,05300
9,532 9,330639 -0,21696 0,23023 0,19997827 0,04707
10,585 9,194984 0,90523 -0,21696 1,25930725 0,81943
10,229 9,318661 0,48571 0,90523 0,17599577 0,23591
7,6116 6,532171 -0,69993 0,48571 1,4057294 0,48990
9,3099 9,940667 -0,75247 -0,69993 0,00276023 0,56620
11,091 10,00501 0,99582 -0,75247 3,0564945 0,99165
9,9454 9,049023 0,34107 0,99582 0,42869861 0,11633
10,557 9,071029 0,94160 0,34107 0,36064169 0,88661
9,4199 8,282867 0,20914 0,94160 0,53650615 0,04374
8,8504 8,203201 -0,31944 0,20914 0,27939343 0,10204
9,2199 9,713368 -0,72568 -0,31944 0,16503061 0,52661
10,43 8,076043 1,32554 -0,72568 4,20752154 1,75707
9,3623 11,05571 -1,27287 1,32554 6,75175532 1,62020
9,5724 10,94039 -1,00347 -1,27287 0,07257852 1,00694
10,603 10,4844 0,26127 -1,00347 1,5995488 0,06826
12,535 11,55724 1,64235 0,26127 1,90737727 2,69730
10,15 9,821585 0,14909 1,64235 2,22979974 0,02223
10,791 10,38259 0,50159 0,14909 0,12425223 0,25159
8,3926 10,29443 -1,85146 0,50159 5,53681089 3,42789
10,34 10,68593 -0,10507 -1,85146 3,04986336 0,01104
10,801 11,00794 0,19053 -0,10507 0,08737765 0,03630
12,503 13,85028 0,43215 0,19053 0,05838254 0,18676
10,067 10,26713 -0,16292 0,43215 0,35411152 0,02654
9,957 11,4773 -0,89472 -0,16292 0,53553417 0,80053
9,5366 11,10947 -1,12611 -0,89472 0,05354133 1,26813
10,576 13,39081 -1,25899 -1,12611 0,0176555 1,58505
11,626 12,99582 -0,00525 -1,25899 1,57184206 0,00003
14,279 13,92966 2,16756 -0,00525 4,72111522 4,69831
  55,1221061 29,99083

Для проверки успешности проведенной операции по очистке регрессии от автокорреляции рассчитаем статистику Дарбина—Уотсона:

.

Из таблицы, представленной на рисунке 10, найдем значения верхней и нижней границы. Для нашего примера , , поэтому:

Поскольку , можно сделать вывод об отсутствии автокорреляции остатков. Следовательно, очистка остатков регрессии от автокорреляции прошла успешно.

Стоит также обратить внимание на изменение коэффициентов и значений t - и F -статистик в первоначальной регрессии (доход—продуктивность), рис. 8 и преобразованной регрессии, рис. 12. Можно заметить, что данные характеристики регрессии уменьшились. Но, несмотря на ухудшение качества модели, были получены оценки регрессии со всеми оптимальными свойствами, т.е. BLUE -оценки.


Список литературы

  1. D. N. Gujarati — Basic Econometrics, fourth edition
  2. Бородич С. А. — Вводный курс эконометрики: Учебное пособие — Мн.: БГУ, 2000
  3. Доугерти К. — Введение в эконометрику: Пер. с англ. — М.: ИНФРА-М, 1999
  4. Елисеева И. И. — Эконометрика: Учебник — М.: Финансы и статистика, 2003
  5. Кремер Н. Ш., Путко Б. А. — Эконометрика: Учебник для вузов — М.: ЮНИТИ-ДАНА, 2002

Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: