Задача не имеющая ограничений называются задачей безусловной оптимизации. Рассмотрим задачу безусловной оптимизации:
f(x)=F(x1..xn) -> min x
,
Алгоритмы безусловной оптимизации представляют собой итерационные процедуры, реализующие последовательное приближение к искомому экстремуму.
K – номер итерации;
- направление поиска на к-ой итерации.
- величина шага в данном направлении.

В координатной форме эта схема имеет вид:

Процесс поиска начинается с некоторой точки X0, которая называется начальным приближением и задается пользователем. По этой точке определяются точки X1 , X2 и т.д. Полученная последовательность точек называется траекторией поиска и сходится к оптимальной точке Х*. Методы безусловной оптимизации отличаются друг от друга способами выбора направления поиска
и величиной шага
.
В зависимости от способа выбора направления поиска различают методы нулевого порядка, методы первого порядка, методы второго порядка.
Методы нулевого порядка – это методы, в которых для определения направления поиска используется только значение целевой функции. Производные при этом не используются. Они называются методами прямого поиска или поисковыми методами оптимизации.
Методы первого порядка – методы, в которых для определения направления поиска используются первые производные целевой функции. Эти методы называются градиентными методами оптимизации.
Методы второго порядка – это методы, в которых для определения направления поиска используются вторые производные целевой функции. К этому классу относят метод Ньютона и его модификации.
Методы второго порядка используют как первые так и вторые производные целевой функции. К этому классу относят метод Ньютона и его модификации, которые строятся по следующей схеме:

Где
- матрица вторых производных целевой функции.
Данные методы отличаются друг от друга способом выбора шага. В классическом методе ньютона шаг равен 1 на всех итерациях.
В методе Ньютона- Равсона шаг перестраивается в процессе оптимизации, при этом используется 2 способа выбора шага:
1) Связан с проверкой условия
и дробление шага в случае его невыполнения
2) Связан с определением на каждой итерации оптимальной длины шага, в результате решения вспомогательной задачи одномерной оптимизации: min (F(
)).