Оценки неизвестных параметров , , …, линейной модели множественной регрессии находятся, как и в случае парной регрессии, с помощью метода наименьших квадратов из условия оптимизации функции
,
т.е. из условия
.
Для нахождения параметров , , …, на основании необходимого условия экстремума приравниваются к нулю частные производные функции по переменным , , …, . В итоге получается система, содержащая линейных уравнений (по числу параметров) с переменными:
(4.3)
Здесь – число наблюдений зависимой переменной y, – наблюдаемые значения j -го фактора, .
Для решения системы (4.3) может быть применен метод Крамера, метод Гаусса, матричный метод или любой другой метод решения систем линейных уравнений.
Метод наименьших квадратов применительно к множественной линейной регрессионной модели дает хорошие результаты (несмещенные, эффективные и состоятельные оценки параметров регрессии) при выполнении определенных требований к случайной переменной .
Теорема Гаусса – Маркова. Пусть выполняются условия:
|
|
1) математическое ожидание случайной переменной равно нулю;
2) дисперсия случайной переменной одинакова для всех наблюдений (постоянство дисперсии называется гомоскедастичностью, непостоянство – гетероскедастичностью);
3) отсутствует систематическая связь между значениями случайной переменной для различных наблюдений (это условие называется условием отсутствия автокорреляции);
4) случайная переменная независима от объясняющих переменных.
Тогда оценки параметров регрессии, полученные по МНК, являются несмещенными, состоятельными и эффективными.
Линейная модель, удовлетворяющая условиям 1-4, называется классической линейной моделью множественной регрессии. Если же в дополнение к условиям 1-4 выполняется предположение о нормальном распределении случайной величины , то классическая линейная модель называется нормальной.
При построении классических линейных множественных регрессионных моделей необходимо выполнение и таких предположений, как:
– отсутствует мультиколлинеарность (нет зависимости между факторами);
– число наблюдений существенно больше числа объясняющих переменных (по крайней мере, в три раза);
– отсутствуют ошибки спецификации.
Для параметризации нелинейных моделей множественной регрессии часто используется метод линеаризации. Например, в случае модели Кобба-Дугласа , где – объем производства, – затраты капитала, – затраты труда, – параметры модели, – случайная ошибка, осуществляется логарифмирование:
.
Далее по заданным рядам статистических данных рассчитываются ряды их логарифмов, а затем для них с помощью метода наименьших квадратов оцениваются параметры модели Кобба-Дугласа.
|
|
Экономическая интерпретация коэффициентов и в модели Кобба-Дугласа заключается в следующем: при увеличении капиталовложений на 1% объем производства увеличится на %, а при увеличении затрат труда на 1% объем производства увеличится на %.