Множественная линейная регрессия

4.1. Матричная форма регрессионной модели

Экономическое явление определяется большим числом одновременно и совокупно действующих факторов. Модель множественной регрессии запишется так:

Модель линейной множественной регрессии можно записать в матричной форме, имея в виду, что коэффициенты α и β заменены их оценками.

Матрица X T X – неособенная и её ранг равен её размеру, то есть (р +1).

4.2. Отбор факторов для моделей множественной регрессии

Факторы, включаемые в модель, должны существенным образом объяснить вариацию результативной переменной.

Существует ряд способов отбора факторов, наибольшее распространение из которых имеют метод короткой регрессии и метод длинной регрессии.

При использовании метода короткой регрессии в начале в модель включают только наиболее важные факторы с экономически содержательной точки зрения.

С этим набором факторов строится модель и для неё определяются показатели качества ESS, R 2, F, ta, tbj. Затем в модель добавляется следующий фактор и вновь строится модель. Проводится анализ, улучшилась или ухудшилась модель по совокупности критериев. При этом возможно появление парето – оптимальных альтернатив.

Метод длинной регрессии предполагает первоначальное включение в модель всех подозрительных на существенность факторов. Затем какой-либо фактор исключают из модели и анализируют изменение её качества. Если качество улучшится, фактор удаляют и наоборот. При отборе факторов следует обращать внимание на наличие интеркорреляции и мультиколлинеарности.

Сильная корреляция между двумя факторами (интеркорреляция) не позволяет выявить изолированное влияние каждого из них на результативную переменную, то есть затрудняется интерпретация параметров регрессии и они утрачивают истинный экономический смысл. Оценки значений этих параметров становятся ненадёжными и будут иметь большие стандартные ошибки. При изменении объёма наблюдений они могут сильно изменяться, причём не только по величине, но даже и по знаку.

Мультиколлинеарность – явление, когда сильной линейной зависимостью связаны более двух переменных; она приводит к тем же негативным последствиям, о которых только что было сказано. Поэтому, при отборе факторов следует избегать наличия интеркорреляции и, тем более, мультиколлинеарности.

Для обнаружения интеркорреляции и мультиколлинеарности можно использовать анализ матрицы парных коэффициентов корреляции [ r (п)], матрицы межфакторной корреляции [ r (11)] и матрицы частных коэффициентов корреляции [ r (ч)].

Для исключения одного из двух сильно коррелирующих между собой факторов можно руководствоваться таким соображением: из модели бывает целесообразно убрать не тот фактор, который слабее связан с y, а тот, который сильнее связан с другими факторами. Это приемлемо, если связь с y для обоих факторов приблизительно одинакова. При этом возможно наличие парето – оптимальных альтернатив и тогда следует рассмотреть иные аргументы в пользу того или иного фактора.

Матрица [ r (11)] – получается путём вычёркивания первого столбца и первой строки из матрицы [ r (п)].

Матрица [ r (11)] – квадратная и неособенная, ее элементы вычисляются так:

Представляется интересным исследовать определитель det [ r (11)].

Если есть сильная мультиколлинеарность, то почти все элементы этой матрицы близки к единице и det → 0. Если все факторы практически независимы, то в главной диагонали будут стоять величины, близкие к единице, а прочие элементы будут близки к нулю, тогда det→1.

Таким образом, численное значение det [ r (11)] позволяет установить наличие или отсутствие мультиколлинеарности. Мультиколлинеарность может иметь место вследствие того, что какой-либо фактор является линейной (или близкой к ней) комбинацией других факторов.

Для выявления этого обстоятельства можно построить регрессии каждой объясняющей переменной на все остальные. Далее вычисляются соответствующие коэффициенты детерминации

и рассчитывается статистическая значимость каждой такой регрессии по F –статистике:

Критическое значение F определяется по таблице для назначенного уровня значимости γ (вероятности отвергнуть верную гипотезу Н 0 о незначимости R 2 ), и числа степеней свободы df 1= p –1, df 2 = n –1.

Оценку значимости мультиколлинеарности можно также произвести путём проверки гипотезы об её отсутствии: Н 0 : det [ r (11)] =1. Доказано, что величина: приближённо имеет распределение Пирсона: Если вычисленное значение χ 2 превышает табличное значение для назначенного γ и df = n (n –1)/2, то гипотеза Н 0 отклоняется и мультиколлинеарность считается установленной.

Парные коэффициенты корреляции не всегда объективно показывают действительную связь между факторами. Например, факторы могут по существу явления не быть связаны между собой, но смещаться в одну сторону под влиянием некоторого стороннего фактора, не включенного в модель. Довольно часто таким фактором выступает время. Поэтому включение (если это возможно) в модель переменной t иногда снижает степень интеркорреляции и мультиколлинеарности. Более адекватными показателями межфакторной корреляции являются частные коэффициенты корреляции. Они отражают тесноту статистической связи между двумя переменными при элиминировании влияния других факторов.

Частные коэффициенты корреляции вычисляются по следующим формулам:

Таким образом, показывает корреляционную связь между хi и x j, при элимировании влияния прочих факторов и он более правдив, чем rij (парный коэффициент корреляции).

4.3. Влияние на качество модели множественной регрессии избыточных переменных и отсутствия существенных переменных

Пусть истинная модель представляется в виде:

а мы считаем, что моделью является регрессионное уравнение

и рассчитываем оценку величины b 1 по формуле

вместо формулы

В целом проблемы смещения оценки здесь нет, но в общем случае оценка будет неэффективной в смысле наличия большей дисперсии, чем при правильной спецификации. Это легко понять интуитивно. Истинная модель может быть записана в виде

Здесь b 1 будет являться несмещенной оценкой параметра β 1, а b 2 будет несмещенной оценкой нуля (при выполнении условий Гаусса-Маркова).

Утрата эффективности в связи с включением x 2 в случае, когда она не должна быть включена, зависит от корреляции между x 1 и x 2.

Сравним (см. табл. 4.1):

таблица 4.1

Парная регрессия   Множественная регрессия

Дисперсия окажется большей при множественной регрессии, и разница будет тем больше, чем коэффициент парной корреляции будет ближе по модулю к единице.

Теперь, пусть переменная y зависит от двух факторов x 1 и x 2:

однако мы не уверены в значимости фактора x 2, и

поэтому мы запишем уравнение регрессии так:

или

Если выбросить x 2 из регрессионной модели, то x 1 будет играть двойную роль – отражать свое прямое влияние на объясняемую переменную y и заменять фактор x 2 в описании его влияния. Это опосредованное влияние величины x 1 на y будет зависеть от двух обстоятельств: от видимой способности переменной x 1 имитировать поведение x 2 и от прямого влияния x 2 на y. Способность переменной x 1 объяснять поведение переменной x 2 определяется коэффициентом наклона h линии псевдорегрессии:

Величина коэффициента h рассчитывается при помощи обычной формулы для парной регрессии

Влияние х 2 на у определяется в адекватном уравнении регрессии коэффициентом b 2, и таким образом, эффект имитации посредством величины b 2 может быть записан как (прямое влияния величины х 1 на у описывается с помощью b 1).

При оценивании регрессионной зависимости у от х 1 (без включения в нее переменной х 2) коэффициент при х 1 определяется формулой:

При условии, что величина х 1 не является стохастической, ожидаемым значением коэффициента при х 1 будет сумма первых двух членов последней формулы. Присутствие 2-го слагаемого предполагает, что математическое ожидание коэффициента при х 1 будет отличаться от истинной величины b 1, то есть, другими словами, оценка будет смещенной. Величина смещения определится выражением:

Направление смещения определяется знаками b 2 и cov (x 1 ,x 2); иногда смещение бывает настолько сильным, чтобы заставить коэффициент регрессии сменить знак.

Если то смещение исчезает.

Другим серьезным следствием невключения переменной, которая на самом деле должна присутствовать в регрессии, является то, что формулы для стандартных ошибок коэффициентов и тестовые статистики, вообще говоря, становятся неприменимыми.

4.4. Оценка параметров модели множественной регрессии

Параметры модели в классическом варианте оценивают с помощью МНК. Предпосылки для МНК в множественной регрессии:

1. математическое ожидание остатков во всех наблюдениях равняется нулю ;

2. отсутствие гетероскедастичности остатков

;

3. отсутствие автокорреляции в остатках

;

4. объясняющие переменные детерминированы, а у – объясняемая переменная, случайна и остатки не коррелируют с объясняющими переменными.

5. остатки должны быть распределены нормально: ε i ~ N (0; σ);

6. регрессионная модель должна быть линейна относительно параметров;

7. отсутствие интеркорреляции и мультиколлинеарности

Уравнение множественной регрессии выглядит следующим образом:

Обратившись к матричной форме записи можно увидеть, что система нормальных управлений (СНУ), для такой множественной линейной модели будет иметь такой вид:

В матричной форме вектор оценки параметров запишется:

Дисперсия остатков отыскивается так:

Эти формулы справедливы для классического МНК при гомоскедастичности остатков и отсутствии автокорреляции в остатках.

Модель, где все факторы, присутствуют в масштабах своих единиц измерения, не позволяет сравнить (оценить) степень вклада каждого фактора в результат, поэтому для исключения этого недостатка строят уравнения с использованием стандартизованных переменных и коэффициентов.

Коэффициенты регрессии такой модели имеют тот же смысл, что и в парной регрессии, только каждый коэффициент отвечает за свой фактор. Они показывают на сколько своих СКО изменится в среднем результат y, если соответствующий фактор изменится на одно свое СКО при неизменном среднем уровне остальных факторов.

Долю влияния j –го фактора в суммарном влиянии всех факторов можно оценить по величине дельта–коэффициентов :

Качество уравнения множественной регрессии можно оценить с помощью коэффициента множественной корреляции или его квадрата - коэффициента детерминации:

Если число наблюдений n недостаточно велико по сравнению с количеством факторов p, то величина R 2 считается завышенной и в таких случаях вычисляют исправленное значение R 2.

.

4.5. Оценка надёжности результатов множественной регрессии.

Вычислим F – статистику:

.

Значимость уравнения в целом можно оценить с помощью статистики Фишера, а значимость каждого фактора оценивают с помощью t -статистик Стьюдента:

Интервальные оценки коэффициентов множественной регрессии и среднего значения прогноза будут иметь вид:


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: