Проблема спецификации переменных. Мультиколлинеарность
Мультиколлениарность – это линейная взаимосвязь двух любых регрессоров Xj и Xk, (j, k =
), что является нарушением предпосылки 7 метода наименьших квадратов.
Здесь может быть два случая:
а) Два любых фактора имеют между собой линейную функциональную (детерминированную) связь
xj =a+ bx k. (5.1)
В этом случае соответствующий вектор-столбцы в базе данных xij , (
) и xi k, (
) оказываются строго линейно – зависимыми и определитель матрицы нормальных уравнений равен нулю:
(5.2)
Значит матрица
необратима и оценить параметры уравнения регрессии по методу наименьших квадратов невозможно.
б) Линейная связь (5.1) стохастическая (скрытная). Однако она может быть выявлена путем вычисления коэффициента линейной парной корреляции
. Если критерии Стьюдента
значим, то стохастическая линейная взаимосвязь есть!
Следствия мультиколленеарности:
1). Матрица
нормальных уравнений формально обратима, но плохо обусловлена (её определитель
очень мал, и тем меньше, чем сильнее взаимосвязь хj и xk). При большой размерности этой матрицы (десятки и сотни регрессоров) возникают вычислительные проблемы ее обращения.
2) Если все же удалось построить уравнение регрессии с сохранением в нем мультиколлинеарных факторов, уравнение регрессии, как правило имеет плохое качество:
· Модель, как правило, неадекватна;
· Имеют место большие среднеквадратичные отклонения оцениваемых параметров
;
· Оценки неустойчивы по вариации исходных данных;
· Данные моделирования трудноинтерпретируемы.






