Свойства оценок метода наименьших квадратов (МНК)

Для того, чтобы полученные МНК оценки а и b обладали желательными свойствами, сделаем следующие предпосылки об отклонениях εi:
1) величина εi является случайной переменной;
2) математическое ожидание εi равно нулю: М (εi) = 0;
3) дисперсия ε постоянна: D(εi) = D(εi) = s2 для всех i, j;
4) значения i независимы между собой.

Метод наименьших квадратов (МНК) и его реализация с использованием сервиса “Поиск решения”

Использование сервиса Поиск решения позволяет наглядно
продемонстрировать суть метода наименьших квадратов (МНК).
Результаты расчетов и проверки качества моделей приведены в таблицах и
на диаграммах. Схема расчетов та же, что и в задачах математического
программирования:
- задать произвольные коэффициенты аппроксимирующей функции,
- построить функцию в заданном диапазоне Х,
- вычислить отклонения Y – Yфакт для диапазона, в котором значения Y
используются для настройки модели (оценки коэффициентов),
- вычислить все (Y – Yфакт)
2 и сумму (Y – Yфакт)
2
(сумма квадратов
отклонений, Error Squared Sum, ESS),
- вызвать Поиск решения, целевая ячейка ESS, Изменяя ячейки
коэффициенты, ограничений нет, Выполнить.
Показатель качества модели – коэффициент корреляции Х и Y R и
его квадрат – коэффициент детерминации R2
.
Согласно теореме Гаусса-Маркова, МНК обеспечивает наилучшую
линейную несмещенную оценку вектора параметров, т.е. наилучшее
качество линейной модели, если соблюдаются условия:
1. Равенство дисперсий остатков в разных диапазонах Х. Это
свойство называется гомоскедастичность, его несоблюдние –
гетероскедастичность. Отклонение от гомоскедастичности проверяется
по тесту Голдфелда-Квандта
GQ = ДИСП Ост1 / ДИСП Ост2
где ДИСП Ост1 и ДИСП Ост2 – дисперсии остатков (отклонений) в
разных половинах диапазона Х; большая дисперсия делится на меньшую;
GQ сравнивают с критерием Фишера для заданных уровня значимости и
количества точек; нормально GQ < 5.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: