Метод наименьших квадратов. Теорема Гаусса-Маркова

Как и в случае регрессионного уравнения с одной переменной, целью метода является выбор вектора оценок b, минимизирующего сумму квадратов остатков et (квадрат длины вектора остатков e):

.

Выразим e`e через x и b:

  (44)

Необходимые условия минимума SSE получаются дифференцированием уравнения (44) по вектору b:

, (45)

откуда, учитывая обратимость матрицы X`X, находим оценку метода наименьших квадратов:

bOLS = (x`x)-1 x`y. (46)

Покажем, что, как и в случае одного регрессора, формула (45) означает, что вектор остатков e ортогонален всем независимым переменным x1,…,xk (столбцам матрицы X). Условие x1e =…= x`ke = 0 эквивалентно равенству x`e = 0.

Действительно,

. (47)

Получим полезную в дальнейшем формулу для суммы квадратов остатков:

(48)

Геометрическая интерпретация в основном совпадает с геометрической интерпретацией регрессионного уравнения с одной независимой переменной.

Представим Y, x1, …, xk как векторы в n-мерном евклидовом пространстве Rn. Векторы x1, …,.xk образуют k-мерное подпространство p.

Вектор есть ортогональная проекция вектора Y на гиперплоскость p.

Вектор остатков e = y - y ортогонален подпространству p.

Как и в случае регрессионного уравнения с одной независимой переменной, можно показать, что оценка метода наименьших квадратов является оптимальной.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: