Парная линейная регрессия. Проверка гипотез. Интервальные оценки коэффициентов

Эконометрика и ее связь с экономической теорией. Типы моделей и типы данных в эконометрике. Этапы работы с эконометрическими моделями.

!Эконометрика – сов-ть методов анализа связей между различ. экономич. показателями на основе реальных статистич. данных с использован. аппарата тервера и матстата.

!Типы моделей:

-регрессионная модель

Y=M(Y/Xi…Xk)+E

Y-завис. переменные, X-независ. переменные, E-случ. ошибка, отклонение

-модели временных рядов

-модели одновременных уравнений

!Типы данных:

-пространственные данные

матрица X1k…Xnk

n-кол-во наблюдений (строк)

k-кол-во факторов (столбцов)

-временные ряды

!Этапы работы:

1) выбор уравнения регрессии

2) оценка параметров регрессии (β)

3) анализ качества ур. и проверка его адекватности выборочными данными


Выборочные оценки основных числовых характеристик случайных величин: математического ожидания, медианы, дисперсии. Ковариация, коэффициент корреляции, их свойства. Проверка значимости коэффициента корреляции.

!Мат. ожидание – сумма произведений случайной величины на их вероятности

М(X)=∑XiPi

…примерно равно среднему арифметич. наблюдаемых значений

M(X)=срХ

!Дисперсия – матожидание квадрата разности (отклонения) случайной величины от своего матожидания

D(X)=M(X-M(X))^2

...степень разброса участков выборки относительно их средн. знач.

смещ. S^2=срХ^2-(срХ)^2

несмещ. ^S^2=∑(Xi-cрХ)^2/(n-1), при n>30 они равны

!Медиана – срединное значение вариационного ряда

Xмед=(∑Xi)/n

…число посередине нечетной выборки

…средн. значение двух чисел посередине четной выборки

!Ковариация – степень связи между двумя величинами

смещ. cov(X,Y)=∑((Xi-срХ)(Yi-срY))/n

несмещ.^cov(X,Y)= ∑((Xi-срХ)(Yi-срY))/(n-1)

…если cov=0, то величины-независ.

…если cov=1, то величины-завис.

!Свойства ковариации:

1) cov(X,Y)=cov(Y,X)

2) cov(X,X)=M(X*M(X))=D(X)

3) cov(X,Y)=M(X,Y)-M(X)*M(Y)

4) cov(X,Y)=0, если независ.

!Коэф. корреляции – мера линейной зависимости 2х величин

ФОРМУЛА 1 вверх

!Свойства коэф. корр.:

1) r(X,Y)=r(Y,X)

2) r(X,X)=1

3) r(X,Y)=0, если независ.

4) |r|=<1

5) |r|=1, то X и Y линейно завис.

!Проверка знач. коэф. корр.:

H0: r-незначим

H1: r-значим

ФОРМУЛА 1 низ

если Тнабл>Ткрит, то H0 отклоняется и коэф. корр. значим


Регрессионная модель. Причины включения в модель случайного отклонения. Задачи линейного регрессионного анализа. Парная линейная регрессия. Метод наименьших квадратов (МНК). Вывод формул МНК-оценок коэффициентов. Интерпретация коэффициентов. Свойства выборочного уравнения регрессии.

!Регрессионная модель:

Y=M(Y/Xi…Xk)+E

Y-завис. переменные, X-независ. переменные, E-случ. ошибка, отклонение

!Причины включ. случ. отклонения (E):

1) не все объясняющ. перем. вкл. в модель

2) неправильн. выбор формы модели

3) ошибки измерений

4) непредсказуемость человеч. фактора

!Задачи регрессион. анализа:

4) по выборке найти оценки неизв. коэф.

5) оценить точной полученной модели регрессии

6) проанализовать адекватность построенной модели регрессии

!Парная лин. регрессия – регрессия, в к-рой Х и У обратно зависимы

теоретич. ур.: Yi= β0+ β1+E

выборочн. ур.: ^Yi=B0+B1X1

ошибка: E=^Yi-Yi

!МНК заключ. в поиске оценок коэфф. B путем приведения суммы квадратов ошибок к минимуму.

∑E^2 к мин=Sb^2(B0, B1)

Далее путем дифференцирования ошибок коэф. приходим к B1 и B2 = ФОРМУЛА 2

B1 – показвает на ск. изм. Y при изм. X на 1 ед.

B0 – показывает прогнозируемый ур. Y при X=0

!Свойства выборочн. уравнения регрессии ^Yi=B0+B1X1:

1) сумма всех ошибок равна 0

2) X и E – независимы

3) сумма наблюд. знач. Y=сумме модельн. знач ^Y

4) функция регрессии проходит через точку (X;Y)

5) E и ^Y – независимы


1. Свойства точечных оценок: несмещенность, состоятельность, эффективность. Условия Гаусса-Маркова. Теорема Гаусса-Маркова для одномерной модели регрессии.

!Состоятельная оценка – с увеличением выборки, точность оценки увелич.

!Несмещ. оценка – оценка, у которой матожидание равно самой оценке

!Эффективн. оценка – оценка с наим. разбросом участников выборки относительно оценки (с наименьшей дисперсией)

!Условия Гаусса-Маркова:

1) верна линейная модель

2) X-неслуч. величина

3) ошибка не влияет на У

4) ошибка в каждом набл. одинакова (гомоскедастична), имеет одинаковую дисперсию

5) ошибки независимы

6) ошибка имеет нормальный закон распределения

!Теорема Г-М:

Если выполняются все условия, то коэф. оценки B1 и B0, найденные МНК, явл. несмещ., состоят. и эффективными.

Парная линейная регрессия. Качество регрессионной модели. Характеристики точности модели. Суммы квадратов. Коэффициент детерминации, его свойства. Оценка дисперсии случайных отклонений. Стандартные ошибки коэффициентов регрессии.

!Парная лин. регрессия – регрессия, в к-рой Х и У влияют друг на друга и при изменении одного-меняется и другой, и обратно

теоретич. ур.: Yi= β0+ β1+E

выборочн. ур.: ^Yi=B0+B1X1

ошибка: E=^Yi-Yi

!Качество регрессионой модели:

1) Коэф. детерминации R^2

ФОРМУЛА 9

R^2 принадлежит [0;1]

-характеризует зависимость вариации Y от X, чем ближе к 1, тем точнее модель и сильнее зависимость

2) Оценка дисперсии ошибок S^2

ФОРМУЛА 5

3) Стандартные ошибки коэф. регрессии S=кореньS^2

ФОРМУЛА 4

-чем меньше ошибка, тем точнее модель

4) Сумма квадратов

ФОРМУЛА 3

TSS=ESS+RSS

общая=остаточная+регрессионная


Парная линейная регрессия. Проверка гипотез. Интервальные оценки коэффициентов.

!Парная лин. регрессия – регрессия, в к-рой Х и У влияют друг на друга и при изменении одного-меняется и другой, и обратно

теоретич. ур.: Yi= β0+ β1+E

выборочн. ур.: ^Yi=B0+B1X1

ошибка: E=^Yi-Yi

!Проверка гипотез:

1) α-ур. значимости (вероятность отвергнуть верную гипотезу)

H0: коэф. β – незначим

H1: коэф. β – значим

ФОРМУЛА 6 верх

Если Тнабл>Ткрит, то H0 откл. и коэф. – значим, верна H1

2) p-значение (вероятность принять H0)

H0: коэф. β – незначим

H1: коэф. β – значим

если p<α, то H0 откл. и коэф. – значим, верна H1

!Интервальн. оценка коэф.:

γ=1-α – надежность интерв. оценки

ФОРМУЛА 6 низ

Доверительный интервал – это такой интервал для коэф. B, что истинное значение коэф. попадет в него с вер-тью γ

-чем больше выборка, тем меньше интервал, тем точнее коэф. B


Множественная линейная регрессия. Метод наименьших квадратов. Векторно-матричная запись модели регрессии и МНК-оценок коэффициентов регрессии. Условия Гаусса-Маркова. Теорема Гаусса-Маркова.

!Множ. лин. регрессия – регрессия, в к-рой У зависит от мн-ва Х

теоретич. ур.: Yi= β0+β1X1+ βkXik+E i=n

выборочн. ур.: ^Yi=B0+B1X1+BkXik i=n

ошибка: E=^Yi-Yi

!МНК заключ. в поиске оценок коэф. B путем приведения суммы квадратов к минимуму

Bn и B0=ФОРМУЛА2

!Матричный вид:

матрица X1k…Xnk; Y; E; ^β

n-кол-во наблюдений (строк)

k-кол-во факторов (столбцов)

!Векторный вид:

ФОРМУЛА 7

!Условия Гаусса-Маркова:

1) верна линейная модель

2) X-неслуч. величина

3) Х-линейно зависимы

4) ошибка не влияет на У

5) ошибка в каждом набл. одинакова, имеет одинаковую дисперсию (гомоскедастична)

6) ошибки независимы

7) ошибка имеет нормальный закон распределения

!Теорема Г-М:

Если выполняются все условия, то коэф. оценки B, найденные МНК, явл. эффективными оценками среди всех несмещ., состоят. оценок лин. регрессии


Множественная линейная регрессия. Характеристики точности многомерной модели. Суммы квадратов. Коэффициент детерминации, его свойства. Скорректированный коэффициент детерминации. Оценка дисперсии случайных отклонений. Стандартные ошибки коэффициентов регрессии. F-тест на значимость модели в целом.

!Множ. лин. регрессия – регрессия, в к-рой У зависит от мн-ва Х

теоретич. ур.: Yi= β0+β1X1+ βkXik+E i=n

выборочн. ур.: ^Yi=B0+B1X1+BkXik i=n

ошибка: E=^Yi-Yi

!Качество регрессионой модели:

1) Коэф. детерминации R^2

ФОРМУЛА 9

R^2 принадлежит [0;1]

-характеризует зависимость вариации Y от X, чем ближе к 1, тем точнее модель и сильнее зависимость

2) Оценка дисперсии ошибок S^2

ФОРМУЛА 5

3) Стандартные ошибки коэф. регрессии S=кореньS^2

ФОРМУЛА 4

-чем меньше ошибка, тем точнее модель

4) Сумма квадратов

ФОРМУЛА 3

TSS=ESS+RSS

общая=остаточная+регрессионная

5) Скорректированный коэф. детерминации Radj^2

ФОРМУЛА 10

-используется для сравнения моделей с одинаковыми факторами, но разным их кол-вом

-если при новой X коэф. растет, то X играет роль при прогнозе

!F-тест на значимость модели в целом:

H0: модель незначима

H1: модель значима

ФОРМУЛА 11

если Fнабл>Fкрит, то H0 отклон., модель значима в целом



Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: