Статистические свойтва МНК для модели парной линейной регрессии

Можно судить о свойсвтах параметров a, b лишь, если наложены определенные условия на реализации εi случайного члена. В классической модели линейной регрессии делаются след-ие предположения:

1. Объясняющая величина х считается неслучайной величиной. Поэтому реализации зависимой переменной yi определяется реализациями случайного члена. А поскольку параметры a, b оцененного уравнения регрессии вычисляются по данной выборке, то и они определяются возмущениями ε1,ε2,…, являются случайными величинами. Поскольку объясняющая переменная х детерминированная, распределение случайного члена ε не зависит от х.

2. Мат ож E(εi)=0, i=1n, т.е случ член не имеет систематических отклонений.

3. Дисперсия εiпостоянна для всех наблюдений: var(εi)=ϭ^2, i=1n, причем величина ϭ^2 не считается не известной. Это условие нарушается, если, например, с ростом номера i разброс значений εi увеличивается.

4. Случайные члены во всех наблюд.должны быть независимы друг от друга. Это условие,в частности,означает, что cov(εi, εj)=0, Е(εi, εj)=0,для всех ij=1n

Имея ввиду условия 1 и 2, можно записать: εi~N(0, ϭ^2, i=1n

Теорема Гаусса-Маркова устверждает, что оценки коэф пар лин регр по МНК при выполнений условий 1-4 несмещенные и эф-ые, т.е оценки BLUE.

Проверим несмещенность коэффициента b.

Е(b)=

Если учесть св-ва выбор-ой ковар и предположения 1 и 2, то уваидим, что в скобках первое и третье слагаемые равны 0, а второе слагаемое равно . Тогда Е(b)= , т.е оценка несмещенная.

Оценка а параметра α также несмещенная:

E(a)=E(yср-bxср)= E(yср)- E(b)xср=
=


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: