Множественная регрессия

В тех случаях, когда необходимо оценить влияние нескольких факторов на исследуемую величину, строится уравнение множественной регрессии.

Если связь является линейной, то уравнение линейной множественной регрессии запишется в виде:

i = a0 + a1xi1 + a2xi2 +... + amxim,  

где m - число учитываемых факторов (независимых переменных),

n - объем выборки.

Рассмотрим случай, когда y зависит от двух переменных – x1 и x2.

Уравнение с оцененными параметрами будет иметь вид:

i = a0 + a1xi1 + a2xi2,  

Чтобы определить значения коэффициентов a0, a1 и a2, воспользуемся методом наименьших квадратов.

Как и ранее, задача формулируется следующим образом:

Q = = → min.  

Приравяв частные производные нулю и выполнив преобразования, получим систему уравнений:

na0 + a1 xi1 + a2 xi2 = yi, a0 xi1 + a1 + a2 xi1xi2 = yixi1, a0 xi2 + a1 xi1xi2 + a2 = yixi2.
 

Решив систему, можно получить формулы для расчета коэффициентов уравнения множественной линейной регрессии (a0, a1, a2).

Рассмотрим более общий случай - зависимость переменной y от m факторов.

Обозначим:

A = {aj}, j = 0, 1, 2,..., m - вектор оценок параметров регрессии;

Y = {yi}, - вектор значений зависимой переменной;

X = {xij}, , j = 0, 1, 2,..., m - матрица значений независимых переменных;

при этом m - количество независимых переменных, n - объем выборки.

Уравнение регрессии может быть представлено в следующим образом.

Для конкретного yi:

i = a0 + a1xi1 + a2xi2 +... + amxim, (6.5)

или в матричном виде:

Y = A ∙ X,  
где X = 1 x11 x12... x1m 1 x21 x22... x2m ... 1 xn1 xn2... xnm .
 

Обратите внимание на то, что в матрицу X дополнительно введен столбец, все элементы которого равны 1, т.е. условно полагается, что в уравнении (6.5) свободный член a0 умножается на фиктивную переменную xi0, принимающую значение 1 для всех i.

Можно показать, что для общего случая множественной линейной регрессии, коэффициенты уравнения могут быть определены из следующего соотношения:

A = (Xт∙X)-1∙Xт∙Y. (6.6)

Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: