Суть и последствия мультиколлинеарности

Одним из условий множественного регрессионного анализа является предположение о линейной независимости объясняющих переменных модели, что означает линейную независимость столбцов матрицы регрессоров X (определение см. в п. 3.1). При нарушении данного условия, т.е. когда по крайней мере один из векторов-столбцов матрицы X есть линейная комбинация остальных, матрица X T X оказывается вырожденной, так как ее определитель равен нулю. Говорят, что в этом случае имеет место полная коллинеарность объясняющих переменных.

Наличие полной коллинеарности означает, что не существует обратная матрица (X T X)–1, участвующая в основных соотношениях МНК, что приводит к невозможности решения соответствующей системы нормальных уравнений и получения оценок параметров регрессионной модели.

В практике экономических исследований полная коллинеарность встречается достаточно редко, так как ее несложно избежать уже на предварительной стадии анализа и отбора объясняющих переменных. Гораздо чаще приходится сталкиваться с ситуацией, когда между хотя бы двумя объясняющими переменными существует тесная корреляционная связь. Матрица X T X в этом случае является невырожденной, но ее определитель очень мал. Тогда говорят о наличии мультиколлинеарности объясняющих переменных.

Мультиколлинеарность может привести к следующим нежелательным последствиям.

1. Вектор оценок а * и его ковариационная матрица К (а *) в соответствии с формулами (3.10) и (3.12) пропорциональны обратной матрице (XTX) 1, а значит, их элементы обратно пропорциональны величине определителя . В результате получаются большие значения средних квадратических отклонений (стандартных ошибок) выборочных коэффициентов регрессии и, следовательно, малые значения соответствующих t -статистик. Уменьшение t -статистик коэффициентов регрессии может привести к неоправданному выводу о существенности влияния соответствующей объясняющей переменной на зависимую переменную. Возможна ситуация, когда оценка значимости коэффициентов регрессии по t -критерию не имеет смысла, хотя в целом регрессионная модель может оказаться значимой по F -критерию.

2. Оценки коэффициентов регрессии по МНК и их стандартные ошибки становятся очень чувствительными к незначительному изменению результатов наблюдений и объема выборки, т.е. они становятся неустойчивыми. Уравнения регрессии в этом случае, как правило, не имеют реального смысла, так как некоторые из его коэффициентов могут иметь неправильные с точки зрения теории знаки и неоправданно большие значения.

3. Становится затруднительным (а иногда и невозможным) определение влияния каждой из объясняющих переменных на результирующий показатель.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: