Простая линейная регрессия. Классические предположения модели

Простая линейная регрессия (ПЛР) – y = f(x; a) + ε;

у – эндогенная, х – экзогенная, ε – случайная «шоковая» переменная, а – неизвестный вектор параметров модели.

ε – случайные погрешности модели, а также экз. (факторные) пер-ные, кот. считаются несущественными по степени влияния на энд.пер-ную.

Пример: Y=ax+b+ε; x–уровень безработицы, y–темп инфляции.

По степени владения априорной информацией различ. 2 задачи:

1)при неизвестной функции взаимосвязи – задача подбора структуры модели.

2)при заданной функции – задача оценивания неизвестных параметров. Основной метод оценивания параметров – метод наименьших квадратов, кот.обеспечивает оптимальные свойства оценкам только при выполнении классических предположений:

П1. отсутствие систематич.ошибок наблюдений уравнения регрессии: M{ } = 0, t=1,…,T.(случайные перем не влияют)

П2. случайные ошибки некоррелированы между собой: M{ * } = 0, t τ, t,τ=1,…,T.

П3. наблюдения производятся с одинаковой точностью, т.е. дисперсии случ. переменных одинаковы во все моменты измерения: D{ } = , t=1,…,T. - гомоскедастичность

П4. Экз.переменные измеряются без ошибок. В случае модели множ.линейной регрессии их значения образуют линейно-независимые векторы.

П5. Закон распределения вероятностей случайной переменной принадлежит к классу нормальных распределений с нулевым мат.ожиданием и дисперсией , которая чаще всего неизвестна.

Чтобы применять регресс.анализ, необх. иметь сведения о корреляц.анализе.

Коррел.связь – связь, когда признак У реагирует на изменение другого признака х изменением своего частотного распределения.

Регресс.зависимость – зависимость условной средней арифметической выходного признака от изменений входного признака.

Парный коэффициент корреляции (r) – мера коррел. зависимости двух признаков. Принимает значения от -1 до 1; при преобразованиях сдвига и масштаба может только изменить знак без изменения значения; если r = 1 или -1, то существует линейная зависимость между х и У; если r =0, то делают вывод об отсутствии коррел.зависимости признаков.

= - парный коэффициент корреляции Пирсона,

- ковариация между признаками, - среднеквадратич.отклонения х и у.



Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: