Постановка задачи безусловной оптимизации. Классификация задач безусловной оптимизации и методов их решения. Методы безусловной оптимизации Ньютоновского типа

Задача не имеющая ограничений называются задачей безусловной оптимизации. Рассмотрим задачу безусловной оптимизации:

f(x)=F(x1..xn) -> min x ,

Алгоритмы безусловной оптимизации представляют собой итерационные процедуры, реализующие последовательное приближение к искомому экстремуму.

K – номер итерации; - направление поиска на к-ой итерации. - величина шага в данном направлении.

В координатной форме эта схема имеет вид:

Процесс поиска начинается с некоторой точки X0, которая называется начальным приближением и задается пользователем. По этой точке определяются точки X1 , X2 и т.д. Полученная последовательность точек называется траекторией поиска и сходится к оптимальной точке Х*. Методы безусловной оптимизации отличаются друг от друга способами выбора направления поиска и величиной шага .

В зависимости от способа выбора направления поиска различают методы нулевого порядка, методы первого порядка, методы второго порядка.

Методы нулевого порядка – это методы, в которых для определения направления поиска используется только значение целевой функции. Производные при этом не используются. Они называются методами прямого поиска или поисковыми методами оптимизации.

Методы первого порядка – методы, в которых для определения направления поиска используются первые производные целевой функции. Эти методы называются градиентными методами оптимизации.

Методы второго порядка – это методы, в которых для определения направления поиска используются вторые производные целевой функции. К этому классу относят метод Ньютона и его модификации.

Методы второго порядка используют как первые так и вторые производные целевой функции. К этому классу относят метод Ньютона и его модификации, которые строятся по следующей схеме:

 

 

Где - матрица вторых производных целевой функции.

Данные методы отличаются друг от друга способом выбора шага. В классическом методе ньютона шаг равен 1 на всех итерациях.

В методе Ньютона- Равсона шаг перестраивается в процессе оптимизации, при этом используется 2 способа выбора шага:

1) Связан с проверкой условия и дробление шага в случае его невыполнения

2) Связан с определением на каждой итерации оптимальной длины шага, в результате решения вспомогательной задачи одномерной оптимизации: min (F()).

 

 


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: