Суть и последствия мультиколлинеарности
Методы устранения автокорреляции
Возможно, автокорреляция вызвана отсутствием в модели важной объясняющей переменной. Нужно попытаться определить данный фактор и включить его в модель. Также можно попробовать изменить форму зависимости. Но если все разумные процедуры изменения спецификации модели исчерпаны, а автокорреляция имеет место, то можно воспользоваться авторегрессионным преобразованием.
Для простоты ограничимся моделью парной линейной регрессии и авторегрессионной схемой первого порядка.
Вместо переменных у, х рассмотрим переменные у*, х*, значения которых вычисляются по правилу,, i = 2,..., n,.
Поправки Прайса-Вйнстена:
.
Положим Тогда по таблице значений переменных у*, х* оцениваются коэффициенты уравнения Затем получаем
Пример. Оцениваются коэффициенты уравнения у = а + bx, где значения переменных х, у – первые два столбца таблицы 6.
Таблица 6 – Расчет коэффициентов уравнения
| xi | yi | ||
| 1,31 | 1,12 | 1,25 | 1,06 |
| 2,21 | -0,36 | 1,80 | -0,71 |
| 1,37 | 1,41 | 0,68 | 1,52 |
| 1,87 | 0,79 | 1,45 | 0,35 |
| 1,53 | 0,87 | 0,95 | 0,63 |
| 2,14 | -0,11 | 1,67 | -0,38 |
| 2,26 | ОД | 1,60 | 0,13 |
| 1,31 | 1,63 | 0,61 | 1,60 |
| 1,76 | -0,07 | 1,35 | -0,58 |
| 1,28 | 0,93 | 0,73 | 0,95 |
| 1,88 | 0,44 | 1,48 | 0,15 |
| 1,46 | 1,24 | 0,88 | 1,10 |
| 2,22 | 0,09 | 1,77 | -0,29 |
| 1,75 | 0,77 | 1,06 | 0,74 |
| 1,29 | 1,64 | 0,75 | 1,40 |
| 1,99 | 0,54 | 1,59 | 0,03 |
| 2,27 | -0,3 | 1,65 | -0,47 |
| 1,29 | 1,43 | 0,59 | 1,52 |
| 2,28 | -0,07 | 1,88 | -0,51 |
| 1,84 | 0,58 | 1,13 | 0,60 |
| 2,05 | 0,22 | 1,48 | 0,04 |
| 2,17 | 0,11 | 1,53 | 0,04 |
| 1,98 | 0,25 | 1,31 | 0,22 |
| 1,28 | 0,67 | 1,92 | |
| 1,29 | 1,67 | 0,89 | 1,05 |
На основании критерия Дарбина-Уотсона гипотеза об отсутствии автокорреляции остатков не может быть ни принята, ни отвергнута. Применяется авторегрессионная схема первого порядка.
DW = 1,381..
Заполняем таблицу. Из каждого элемента 1-го столбца вычитаем предыдущее число 1-го столбца, умноженное на 0,31, и результат пишем в 3-м столбце (округляем до двух цифр после запятой). Аналогично для 2-го и 4-го столбцов.
По МНК находим коэффициенты уравнения у* = а* + bх*. Тогда а = а */(1 – р) = а* /(l – 0,31) = а* /0,69.
Мулътиколлинеарность– это линейная взаимосвязь двух или нескольких объясняющих переменных.
Последствия мультиколлинеарности:
1) Большие стандартные ошибки, что расширяет доверительные интервалы теоретических коэффициентов уравнения линейной регрессии.
2) Уменьшаются статистики, поэтому возможен вывод о статистической незначимости коэффициента βi.
3) bi и, становятся очень чувствительными к малейшим изменениям данных.
4) Затрудняется определение вклада каждой из объясняющих переменных в объясняемую уравнением линейной регрессии дисперсию результативного признака.
5) Возможно получение неверного знака у коэффициентов регрессии.
Высокий коэффициент детерминации и низкие статистики некоторых переменных свидетельствуют о наличии мультиколлинеарности. Также о наличии мультиколлинеарности свидетельствуют высокие значения частных коэффициентов корреляции(коэффициенты корреляции между двумя переменными, очищенные от влияния других переменных). Например, при трех факторах х1, х2, х3 частный коэффициент корреляции между х1 и х2 равен:
Аналогично вычисляются r13.2 и r23.1.
Пример. В модели три фактора х1, х2, х3. Коэффициенты корреляции r12 = 0,44, r13 = - 0,35, r23 = 0,51. Найдем частный коэффициент корреляции между х1 и х2.
Мультиколлинеарность присутствует так как частный коэффициент корреляции больше 0,7.






