Идентификация – единственное соответствие между приведенной и структурной формами модели. С позиции идентифицируемости модели делятся на 3 вида:
идентифицируемые (если число коэффициентов СФМ = число коэффициентов ПФМ)
неиднтифицируемость (число коэффициентов СФМ > числа ПФМ)
сверхидентифицируемость (число структурных коэффициентов СФМ < числа ПФМ)
в Целях идентификации каждое уравнение системы проверяется с помощью необходимого и достаточного условия.
Необходимое условие идентификации: необходимо, чтобы число экзогенных переменных отсутствующих в данном уравнении, но присутствующих в системе (Д) было равно числу эндогенных переменных в данном уравнении без одного (Н). Счетное правило: Д+1=Н – идентифицируются; Д+1<Н – неидентифицируются; Д+1>Н – сверхидентифицруются.
Достаточное условие: если по отсутствующим в нем переменным (эндо- и экзогенным) можно из коэффициентов при них в других уравнениях системы получить матрицу, определитель которой =0, а ранг ≥ числа эндогенных переменных в системе без одного.
Определителем Грама (англ.) (грамианом) системы векторов
в евклидовом пространстве называется определитель матрицы Грама этой
Cистемы:

где
— скалярное произведение векторов Ei и Ej.
Матрица Грама возникает из следующей задачи линейной алгебры:
Пусть в евклидовом пространстве V система векторов
порождает подпространство U. Зная, чему равны скалярные произведения вектора X из U с каждым из этих векторов, найти коэффициенты разложения вектора X по векторам
.
Исходя из разложения

получается линейная система уравнений с матрицей Грама:

Эта задача однозначно разрешима тогда и только тогда, когда векторы
линейно независимы. Поэтому обращение в нуль определителя Грама системы векторов — это критерий их линейной зависимости.
Ковариацией
случайных величин
и
называется число 
Справедливы равенства:
;
;
;
.
Дисперсия суммы нескольких случайных величин вычисляется по любой из следующих формул:

Регрессио́нный (линейный) анализ — статистический метод исследования влияния одной или нескольких независимых переменных на зависимую переменную. Независимые переменные иначе называют регрессорами или предикторами, а зависимые переменные — критериальными. Терминология зависимых и независимых переменных отражает лишь математическую зависимость переменных (см. Ложная корреляция), а не причинно-следственные отношения.
Цели регрессионного анализа
Определение степени детерминированности вариации критериальной (зависимой) переменной предикторами (независимыми переменными)
Предсказание значения зависимой переменной с помощью независимой(-ых)
Определение вклада отдельных независимых переменных в вариацию зависимой
Регрессионный анализ нельзя использовать для определения наличия связи между переменными, поскольку наличие такой связи и есть предпосылка для применения анализа.
Математическое определение регрессии
Строго регрессионную зависимость можно определить следующим образом. Пусть Y, —
случайные величины с заданным совместным распределением вероятностей. Если для каждого набора значений
определено условное математическое ожидание 
(уравнение регрессии в общем виде), то функция
называется регрессией величины Y по величинам
, а её график — линией регрессии Y по
, или уравнением регрессии. Зависимость Y от
проявляется в изменении средних значений Y при изменении
. Хотя при каждом фиксированном наборе значений
величина Y остаётся случайной величиной с определённым рассеянием.
Для выяснения вопроса, насколько точно регрессионный анализ оценивает изменение Y при изменении
, используется средняя величина дисперсии Y при разных наборах значений
(фактически речь идет о мере рассеяния зависимой переменной вокруг линии регрессии).






