Глава V. Некоторые вопросы практического построения регрессионных моделей

Проблема спецификации переменных. Мультиколлинеарность

 

Мультиколлениарность – это линейная взаимосвязь двух любых регрессоров Xj  и Xk, (j, k = ), что является нарушением предпосылки 7 метода наименьших квадратов.

Здесь может быть два случая:

а) Два любых фактора имеют между собой линейную функциональную (детерминированную) связь

 

                                                xj =a+ bx k.                                         (5.1)

 

В этом случае соответствующий вектор-столбцы в базе данных xij , () и xi k, () оказываются строго линейно – зависимыми и определитель матрицы нормальных уравнений равен нулю:

 

                                                                                              (5.2)

 

Значит матрица  необратима и оценить параметры уравнения регрессии по методу наименьших квадратов невозможно.

б) Линейная связь (5.1) стохастическая (скрытная). Однако она может быть выявлена путем вычисления коэффициента линейной парной корреляции . Если критерии Стьюдента  значим, то стохастическая линейная взаимосвязь есть!

Следствия мультиколленеарности:

1). Матрица  нормальных уравнений формально обратима, но плохо обусловлена (её определитель  очень мал, и тем меньше, чем сильнее взаимосвязь хj и xk). При большой размерности этой матрицы (десятки и сотни регрессоров) возникают вычислительные проблемы ее обращения.

2) Если все же удалось построить уравнение регрессии с сохранением в нем мультиколлинеарных факторов, уравнение регрессии, как правило имеет плохое качество:

· Модель, как правило, неадекватна;

· Имеют место большие среднеквадратичные отклонения оцениваемых параметров ;

· Оценки неустойчивы по вариации исходных данных;

· Данные моделирования трудноинтерпретируемы.

 


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: