Обнаружение мультиколлинеарности

Суть и последствия мультиколлинеарности

Методы устранения автокорреляции

Возможно, автокорреляция вызвана отсутствием в модели важной объясняющей переменной. Нужно попытаться определить данный фактор и включить его в модель. Также можно попробовать изменить форму зависимости. Но если все разумные процедуры изменения спецификации модели исчерпаны, а автокорреляция имеет место, то можно воспользоваться авторегрессионным преобразованием.

Для простоты ограничимся моделью парной линейной регрессии и авторегрессионной схемой первого порядка.

Вместо переменных у, х рассмотрим переменные у*, х*, значения которых вычисляются по правилу,, i = 2,..., n,.

Поправки Прайса-Вйнстена:

.

Положим Тогда по таблице значений переменных у*, х* оцениваются коэффициенты уравнения Затем получаем

Пример. Оцениваются коэффициенты уравнения у = а + bx, где значения переменных х, у – первые два столбца таблицы 6.

Таблица 6 – Расчет коэффициентов уравнения

xi yi    
1,31 1,12 1,25 1,06
2,21 -0,36 1,80 -0,71
1,37 1,41 0,68 1,52
1,87 0,79 1,45 0,35
1,53 0,87 0,95 0,63
2,14 -0,11 1,67 -0,38
2,26 ОД 1,60 0,13
1,31 1,63 0,61 1,60
1,76 -0,07 1,35 -0,58
1,28 0,93 0,73 0,95
1,88 0,44 1,48 0,15
1,46 1,24 0,88 1,10
2,22 0,09 1,77 -0,29
1,75 0,77 1,06 0,74
1,29 1,64 0,75 1,40
1,99 0,54 1,59 0,03
2,27 -0,3 1,65 -0,47
1,29 1,43 0,59 1,52
2,28 -0,07 1,88 -0,51
1,84 0,58 1,13 0,60
2,05 0,22 1,48 0,04
2,17 0,11 1,53 0,04
1,98 0,25 1,31 0,22
1,28   0,67 1,92
1,29 1,67 0,89 1,05

На основании критерия Дарбина-Уотсона гипотеза об отсутствии автокорреляции остатков не может быть ни принята, ни отвергнута. Применяется авторегрессионная схема первого порядка.

DW = 1,381..

Заполняем таблицу. Из каждого элемента 1-го столбца вычитаем предыдущее число 1-го столбца, умноженное на 0,31, и результат пишем в 3-м столбце (округляем до двух цифр после запятой). Аналогично для 2-го и 4-го столбцов.

По МНК находим коэффициенты уравнения у* = а* + *. Тогда а = а */(1 – р) = а* /(l – 0,31) = а* /0,69.

Мулътиколлинеарность– это линейная взаимосвязь двух или нескольких объясняющих переменных.

Последствия мультиколлинеарности:

1) Большие стандартные ошибки, что расширяет доверительные интервалы теоретических коэффициентов уравнения линейной регрессии.

2) Уменьшаются статистики, поэтому возможен вывод о статистической незначимости коэффициента βi.

3) bi и, становятся очень чувствительными к малейшим изменениям данных.

4) Затрудняется определение вклада каждой из объясняющих переменных в объясняемую уравнением линейной регрессии дисперсию результативного признака.

5) Возможно получение неверного знака у коэффициентов регрессии.

Высокий коэффициент детерминации и низкие статистики некоторых переменных свидетельствуют о наличии мультиколлинеарности. Также о наличии мультиколлинеарности свидетельствуют высокие значения частных коэффициентов корреляции(коэффициенты корреляции между двумя переменными, очищенные от влияния других переменных). Например, при трех факторах х1, х2, х3 частный коэффициент корреляции между х1 и х2 равен:

Аналогично вычисляются r13.2 и r23.1.

Пример. В модели три фактора х1, х2, х3. Коэффициенты корреляции r12 = 0,44, r13 = - 0,35, r23 = 0,51. Найдем частный коэффициент корреляции между х1 и х2.

Мультиколлинеарность присутствует так как частный коэффициент корреляции больше 0,7.




double arrow
Сейчас читают про: