Обнаружение и устранение мультиколлинеарности

Для обнаружения парной коллинеарности можно использовать матрицу коэффициентов парной корреляции между факторами:

(3)

Для оценки мультиколлинеарности факторов может использоваться определитель матрицы парных коэффициентов корреляции между факторами : чем ближе к нулю определитель матрицы межфакторной корреляции, тем выше мультиколлинеарность факторов и ненадежнее результаты множественной регрессии.

Для примера рассмотрим модель с тремя объясняющими переменными:

Матрица коэффициентов парной корреляции между факторами имеет вид:

(4)

Если факторы не коррелируют между собой (идеальный случай), то и определитель матрицы , если же между факторами существует полная линейная зависимость (абстракция, идеальный случай), то все коэффициенты корреляции и определитель такой матрицы равен нулю:

При рассмотрении реальных экономических процессов определитель матрицы коэффициентов межфакторной корреляции принимает значения и чем ближе он к нулю, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии.

Прежде чем указать основные методы устранения мультиколлинеарности отметим, что в ряде случаев мультиколлинеарность не является серьезным недостатком, чтобы прилагать усилия для ее устранения. Ответ на это зависит в основном от цели исследования.

Если основная задача модели – прогноз будущих значений зависимой переменной, то при достаточно большом коэффициенте детерминации (>0,9) наличие мультиколлинеарности зачастую не сказывается на прогнозных качествах модели. Хотя это утверждение будет обоснованным лишь в том случае, что и в будущем между коррелированными переменными будут сохраняться те же отношения, что и ранее.

Если же целью исследования является определение степени влияния каждой из объясняющих переменных на зависимую переменную, то наличие мультиколлинеарности, приводящее к увеличению стандартных ошибок, скорее всего, исказит истинные зависмости между переменными. В этой ситуации мультиколлинеарность представляется серьезной проблемой.

Отметим, что единого метода устранения мультиколлинеарности, пригодного в любом случае, не существует. Это связано с тем, что причины и последствия мультиколлинеарности неоднозначны и во многом зависят от результатов выборки.

Методы устранения мультиколлинеарности:

1) простейшим методом устранения мультиколлинеарности является исключение из модели одной или нескольких коррелированных переменных.

2) иногда для уменьшения мультиколлинеарности достаточно увеличить объем выборки.

3) в ряде случаев проблема мультиколлинеарности может быть решена путем изменения спецификации модели: либо изменяется форма модели, либо добавляются объясняющие переменные, не учтенные в первоначальной модели, но существенно влияющие на зависимую переменную. Например, для устранения мультиколлинеарности можно перейти к совмещенным уравнениям регрессии, т.е. к уравнениям, которые не только отражают влияние факторов, но и их взаимодействие. Например, для уравнения с тремя объясняющими переменными можно построить следующую модель:

(5)

Рассматриваемая модель включает в себя взаимодействие первого порядка. Можно включать в модель и взаимодействие более высоких порядков, однако, как правило, взаимодействие третьего и более высокого порядка оказывается статистически незначимым. Не всегда оказывается целесообразным включать в модель все факторы и всех порядков. Если анализ совмещенного уравнения, к примеру, показал значимость только взаимодействия факторов и , то уравнение будет иметь вид:

(6)

Вследствие взаимодействия факторов парные коэффициенты корреляции не могут в полной мере решать вопрос о целесообразности включения в модель того или иного фактора с результатом. Матрица частных коэффициентов корреляции наиболее широко используется в процедуре отсева факторов. Отсев факторов можно проводить и по критерию Стьюдента для коэффициентов регрессии: из уравнения факторы с величиной критерия меньше табличного.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: