Регрессия – средн изменение результативного признака, приходящееся на единицу изменения факторного признака, а функция, отображающая связь между признаками, называется уравнением регрессии.
Регрессионн. анализ служит для опред вида связи между результирующим или факторным признаком и дает возможность прогнозировать значения результ. признака по знач независимых факторн. призн.
Модели регрессии: парная и множественная регрессии. Уравнение регрессии, отображающее зависимость результативного признака лишь от 1го факторного – уравнение парной регрессии, а отображающая зависимость результирующего признака от двух и более факторных – уравнение множественной регрессии.
Парная линейная регрессия – линейная связь между двумя переменными Х и У (описывается в виде прямой), уравнение
= aх + b
Метод наименьших квадратов. Суть метода наим квадратов заключается в выборе такой линии регрессии, чтобы сумма квадратов отклонений по вертикали между точками и этой линией была бы минимальной:
Схема: 1. Сумма квадратов отклонений S(a, b) экспериментальных значений признака У, от значений данного признака, получаем из уравнения регрессии:
x,i=ахi=и
S (a, b)=
2 <=> S (a, b)=
2
2. Находятся частные производные по а и b от реальной данной суммы квадратов отклонений:
=
*(-xi)
(Um)´= mum-1
=
*(-1)
3. Система уравнений относительно а и b приравниваем данные производных к 0:
*(-xi)=0
*(-1)=0
a 
a
xi + bm = 
Решение полученная система, относительно а и b.
a = rb*
, b=
b -
b*rb* 
Подставляются найденные значения а и b в искомое уравнение регрессии и принимает вид:
x=rb*
(x-
b)+
b






