Линейная модель парной регрессии есть: у=а0+а1х+e
а1 - коэф-т регрессии, показывающий, как изменится у при изменении х на единицу
а0 - это свободный член, расчетная величина, содержания нет.
e - это остаточная компонента, т.е. случайная величина, независимая, нормально распределенная, мат ожид = 0 и постоянной дисперсией.
В матричной форме модель имеет вид:
Y=XA+ε
Где Y– вектор-столбец размерности (nx1) наблюдаемых значений зависимой переменной; Х– матрица размерности (nx2) наблюдаемых значений факторных признаков. Дополнительный фактор х0 вводится для вычисления свободного члена; А– вектор-столбец размерности (2х1) неизвестных, подлежащих оценке коэффициентов регрессии; ε– вектор-столбец размерности (nх1) ошибок наблюдений
; 
Параметры модели находятся с использованием МНК. Подсчитывается сумма квадратов ошибок наблюдений.
Метод наименьших квадратов.
Классический подход к оцениванию параметров линейной регрессии основан на метода наименьших квадратов. МНК позволяет получить такие оценки параметров а и Ь, при которых сумма квадратов отклонений фактических значений результативного признака (у) от расчетных (теоретических) ух минимальна:

Иными словами, из свего множества линий линия регрессии на графике выбирается так, чтобы сумма квадратов расстояний по вертикали между точками и этой линией была бы минимальной:
, следовательно, 

Чтобы найти минимум ф-ции
, надо вычислить частные производные по кажд. из параметров а и b и приравнять их к нулю. Обозначим
через S, тогда:
;

Преобразуя эту формулу, получим следующую систему нормальных уравнений для оценки параметров а и b:

Решая эту систему нормальных уравнений либо методом последовательного исключения переменных, либо методом определителей, найдем искомые оценки параметров а и b.
. 






