Мультиколлинеарность

Понятие мультиколлинеарности обусловлено наличием линейных связей между факторами X1,X2,…Xm, включёнными во множественную эконометрическую модель. Например, среди независимых переменных часть может находиться в корреляционной связи или образовывать различные линейные комбинации. Подобная ситуация возникает, если при спецификации модели в качестве независимых переменных одновременно используются такие показатели, как затраты на единицу продукции, себестоимость, цена.

Мультиколлинеарность может быть проблемой только множественной регрессии. И при построении множественной линейной модели следует помнить о проблеме мультиколлинеарности факторов и обязательно проверять модель на наличие мультиколлинеарности.

Мультиколлинеарность – коррелированность двух или нескольких объясняющих переменных в уравнение регрессии. Если мультиколлинеарность обнаруживается, это приводит к следующим негативным последствиям.

  1. Падение точности оценивания
  2. Введение в анализ тех или иных переменных оказывается некорректным.
  3. Излишняя чувствительность оценок коэффициентов к особенностям выборочных данных (добавление небольшого количества наблюдений может привести к очень сильным сдвигам в значении некоторых коэффициентов).

 

Главными признаками мультиколлинеарности являются:

– наличие высоких значений парных коэффициентов корреляции                                             

(это означает, что независимые переменные xi и xj связаны между собой линейной зависимостью и парный коэффициент корреляции стремится к 1);

–  значительное приближение коэффициента корреляции к 1;

– наличие малых значений оценки параметров модели при высоком уровне коэффициента детерминации R2 и F –критерия;

– существенное изменение оценок параметров модели при дополнительном введении в неё независимой переменной.

 

Мультиколлинеарность может быть исследована с помощью метода Ферара-Глобера. На основании исследования характеристик матрицы коэффициентов парных корреляций между факторами можно  определить существенность общей мультиколлинеарности (между всеми факторными признаками) и частичной мультиколлинеарности (между отдельными факторными признаками). Основу алгоритма составляют три статистических критерия.

 

1. Определение критерия Пирсона χ2 («хи» - квадрат) всех независимых переменных X

 

 

 

где  - определитель матрицы коэффициентов парной корреляции между факторными признаками, n – число наблюдений, m –число факторов.

Значение этого критерия сравнивается с табличным при 0,5m(m-1) степенях свободы и уровне значимости α. Если , то существует общая мультиколлинеарность.

2. Вычисление F-критерия Фишера:

,

Где Сkk – диагональный элемент матрицы С=r-1.

Фактические значения критериев сравниваются с табличными при (n-mi) и (mi-1) степенях свободы и уровне значимости α. Если Fk>Fтабл, то соответствующая k –ая объясняющая переменная мультиколлинеарна с другими.

3.Вычисление t –критериев Стьюдента

 

 

Фактические значения критериев  сравниваются с табличными при (n-mi) степенях свободы и уровне значимости α. Если , то между переменными xk и xj существует мультиколлинеарность.

 

Следует отметить, что в ряде случаев мультиколлинеарность не является таким уж злом, чтобы тратить значительные усилия на её выявление и устранение. Ответ на этот вопрос зависит от цели исследования.

Если основная задача модели – прогноз будущих значений зависимой переменной, то наличие мультиколлинеарности зачастую не сказывается на прогнозных качествах модели.

Если целью исследования является определение степени влияния каждой из объясняющих переменных на зависимую, то наличие мультиколлинеарности исказит истинную картину, и в этом случае, мультиколлинеарность представляет большую проблему.

Единого метода устранения мультиколлинеарности, годного в любом случае, не существует, т.к. причины мультиколлинеарности неоднозначны и во многом зависят от результатов выборки.

 

 

Способы устранения эффекта мультиколлинеарности:

 

  1. Исключение переменной/переменных из модели.
  2. Получение дополнительных данных или новой выборки. Поскольку мультиколлинеарность напрямую зависит от выборки, то возможно при другой выборке, мультиколлинеарности не будет или она будет не столь серьёзной. Иногда для уменьшения мультиколлинеарности достаточно увеличить объём выборки.
  3.  Изменение спецификации модели. Например, включение в уравнение регрессии других влияющих факторов, которые не были учтены в первоначальной модели, но существенно влияют на зависимую переменную.
  4. Преобразование переменных. Использовать отклонения от среднего; вместо абсолютных значений взять относительные; параметры модели использовать в стандартизованном виде.

 

Следует отметить, что наиболее часто используется первый метод, как самый простой и позволяющий уменьшить количество признаков. Такой способ часто противоречит реальным экономическим связям и приводит к ухудшению практической значимости эконометрической модели. После того, как окончательно сформирован набор факторных признаков, включаемый в линейную модель, определяют неизвестные параметры зависимости.

Если не один из перечисленных методов не даёт возможности избавиться от мультиколлинеарности, применяю метод главных компонент. Этот метод используется для оценивания параметров моделей большого размера. Идея метода состоит в преобразовании множества переменных матрицы Х на новое множество попарно некоррелированных переменных, среди которых первая соответствует максимально возможной дисперсии, вторая - максимально возможной дисперсии в пространстве, являющемся ортогональным первому.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: