Структурная и приведённая форма модели

Форма модели называется приведенной, если в ее уравнениях каждая эндогенная переменная выражена через предопределенность в ее уравнениях.

Форма модели называется структурной, если хотя бы одно из ее уравнений содержит более одной текущей эндогенной переменной.

Решив общую систему уравнений относительно текущих эндогенных переменных или, что все равно, система относительно вектора Y получим приведенную форму той же модели.

Структурную форму модели всегда можно преобразовать в приведенную. Обратная неверна, не всегда от приведенной формы можно перейти к структурной.

Как правило, появляется на этапе спецификации, в уравнениях отражается закономерности взаимодействия переменных. В структурной форме чаще всего удобно анализировать поведение экон-ого объекта.

В приведенной форме удобно решать задачи оценки значений параметров модели.

 

 

4. Классическая парная регрессионная модель (определение и спе-
цификация модели).

Парная регрессия представляет собой регрессию между двумя переменными – х и у, т.е. модель вида: ŷ = f(x),

Где у – зависимая переменная (результативный признак); х – независимая, или объясняющая, переменная (признак-фактор).

Парная регрессия достаточна, если имеется доминирующий фактор, который и используется в качестве объясняющей переменной. Уравнение простой регрессии характеризует связь между двумя переменными, которая проявляется как некоторая закономерность лишь в среднем в целом по совокупности наблюдений. В уравнении регрессии корреляционная связь признаков представляется в виде функциональной связи, выраженной соответствующей математич функцией. Практически в каждом отдельном случае величина у складывается из двух слагаемых:

yjxjj

гдеyj–фактическоезн-ие результативного признака;

ŷxj – – теоретическоезн-ие результативного признака, найденное исходя из ур-ия регрессии;

εj - случайная величина, характеризующая отклонения реального зн-ия результативного признака от теоретического, найденного по ур-ию регрессии.

Случайная величина ε (случайное возмущение) включает влияние не учтенных в модели факторов, случайных ошибок и особенностей измерения. Ее присутствие в модели порождено тремя источниками: спецификацией модели, выборочным характером исходных данных, особенностями измерения переменных.

Модель называется классической парной регрессионной, если удовл-т четырем условиям:

E(ε1)=E(ε2)=…=E(εn)=0,

Var(ε1)=Var(ε2)=…=Var(εn)=σ2

Cov(εij)=0приi≠j

Cov(xij) = 0 при всех зн-яхi и j

 

 

5. Оценка параметров парной регрессионной модели методом
наименьших квадратов (суть метода, вывод формул для нахождения оценок коэффициентов через систему нормальных уравнений).

 

 В МНК в качестве критерия отбора одной прямой среди множества прямых, проходящих через область с набором наблюдений , используется функция вида:

, и оценки параметров должны быть подобраны таким образом, чтобы сумма квадратов остатков регрессии была минимальна

Т.Озадача оценки параметров парной регрессионной модели МНК сводится к задаче определения экстремума функции двух аргументов. Необходимые условия экстремума:

которые можно также записать так: Приведем к стандартной форме уравнений: . Из 1-ого уравнения находим оценку параметра а: , где и - средние значения по выборке: .

Подстановка полученного для выражения во второе уравнение системы нормальных уравнений: приводит к следующей оценке параметра :

где

- значения переменных, центрированные по средним выборочным;

- несмещенная оценка ковариации

- несмещенная оценка дисперсии.

Т.о. МНК-оценки параметров парной регрессионной модели имеют вид:

 

 



Матричная форма метода наименьших квадратов: спецификация парной регрессионной модели в матричной форме, необходимые условия экстремума в матричном виде, вывод оценки вектора параметров модели.

Метод наименьших квадратов — математический метод, применяемый для решения различных задач, основанный на минимизации суммы квадратов отклонений некоторых функций от искомых переменных. Он может использоваться для «решения» переопределенных систем уравнений (когда количество уравнений превышает количество неизвестных), для поиска решения в случае обычных (не переопределенных) нелинейных систем уравнений, для аппроксимации точечных значений некоторой функции.


Метод наименьших квадратов (МНК) дает оценки, имеющие н а и м е н ь ш у ю дисперсию в классе всех линейных оценок, если выполняются предпосылки нормальной линейной регрессионной модели. МНК минимизирует сумму квадратов отклонения наблюдаемых значений 𝑦𝑖от модельных значений . Оценки, полученные по МНК, обладают свойствами несмещенности, эффективности и состоятельности. Несмещенность оценки означает, что математическое ожидание остатков равно нулю. Если оценки обладают свойством несмещенности, то их можно сравнивать по разным исследованиям. Оценки считаются эффективными, если они характеризуются наименьшей дисперсией. Поэтому несмещенность оценки должна дополняться минимальной дисперсией. Достоверность доверительных интервалов параметров регрессии обеспечивается, если оценки будут не только несмещенными и эффективными, но и состоятельными. Состоятельность оценокхарактеризует увеличение их точностис увеличением

 

 



Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: