Проблема спецификации переменных. Мультиколлинеарность
Мультиколлениарность – это линейная взаимосвязь двух любых регрессоров Xj и Xk, (j, k = ), что является нарушением предпосылки 7 метода наименьших квадратов.
Здесь может быть два случая:
а) Два любых фактора имеют между собой линейную функциональную (детерминированную) связь
xj =a+ bx k. (5.1)
В этом случае соответствующий вектор-столбцы в базе данных xij , () и xi k, () оказываются строго линейно – зависимыми и определитель матрицы нормальных уравнений равен нулю:
(5.2)
Значит матрица необратима и оценить параметры уравнения регрессии по методу наименьших квадратов невозможно.
б) Линейная связь (5.1) стохастическая (скрытная). Однако она может быть выявлена путем вычисления коэффициента линейной парной корреляции . Если критерии Стьюдента значим, то стохастическая линейная взаимосвязь есть!
|
|
Следствия мультиколленеарности:
1). Матрица нормальных уравнений формально обратима, но плохо обусловлена (её определитель очень мал, и тем меньше, чем сильнее взаимосвязь хj и xk). При большой размерности этой матрицы (десятки и сотни регрессоров) возникают вычислительные проблемы ее обращения.
2) Если все же удалось построить уравнение регрессии с сохранением в нем мультиколлинеарных факторов, уравнение регрессии, как правило имеет плохое качество:
· Модель, как правило, неадекватна;
· Имеют место большие среднеквадратичные отклонения оцениваемых параметров ;
· Оценки неустойчивы по вариации исходных данных;
· Данные моделирования трудноинтерпретируемы.