Многомерные методы экспериментальной оптимизации

Для поиска экстремума функции многих переменных применяется ряд методов, среди которых отметим:

метод покоординатной оптимизации; метод Бокса − Уилсона; последовательный симплексный метод.

Метод покоординатной оптимизации Метод покоординатной оптимизации, называемый также методом Гаусса–Зейделя, сводит многомерную оптимизацию к последовательному применению одномерной к сечениям функции. Для этого фиксируют значения всех переменных, кроме одной, к которой применяется один из методов одномерной оптимизации. Затем начинают поиск по второй переменной, фиксируя первую на значении, обеспечившем экстремум, и т. д. После того как список переменных исчерпался, возвращаются к первой переменной, и так до тех пор, пока значение отклика возрастает (убывает). Метод отличается простотой, однако для функций овражистого типа, для которых линии равного уровня сильно вытянуты в направлении, не параллельном осям координат, поиск может продолжаться довольно долго. Метод Бокса−Уилсона  На основе малой серии опытов строится линейное описание поверхности отклика в окрестности начальной точки. В центре этой локальной области определяется значение градиента, после чего начинаются опыты в направлении градиента. Бокс и Уилсон предложили использовать дробные факторные планы для поиска линейной модели. Метод состоит из последовательности циклов, каждый из которых содержит два шага.

1. Построение линейной модели в окрестности некоторой начальной точки с использованием подходящего факторного плана. Окрестность начальной точки, определяемая интервалами варьирования переменных, должна быть не слишком малой, чтобы можно было выявить линейные эффекты на фоне случайных возмущений, и не настолько большой, чтобы обеспечить адекватность линейного приближения. Соотношение между интервалами варьирования  по отдельным переменным должно быть таким, чтобы величины коэффициентов регрессии в случае их значимости имели бы одинаковый порядок. В случае адекватности линейной модели   коэффициенты регрессии  совпадают с компонентами градиента, т.е. , где i, j,…,k – направляющие векторы осей координат. Обычно переходят к нормированному градиенту делением его компонент на норму  либо просто на . Компоненты нормированного градиента обозначим .

2. Пошаговое увеличение величины целевой функции (движение в направлении градиента). Координаты точки наблюдения на -м шаге при движении в направлении градиента определяются по формуле: , где ≥1 – параметр, позволяющий управлять величиной шага, а следовательно, скоростью движения. Чем ближе исследователь подходит к стационарной области, тем меньше . Движение в направлении градиента продолжается до тех пор, пока возрастают значения выходной переменной. В противном случае вновь реализуют факторный план, находят новое линейное приближение и цикл повторяется снова. Если же модель оказывается неадекватной, то это означает, что исследователь либо достиг стационарной области, либо необходимо линейную модель дополнить взаимодействиями. В стационарной области метод Бокса−Уилсона неработоспособен, здесь необходимо переходить к квадратичным моделям.

Геометрическая интерпретация метода приведена на рис.4. Здесь поверхность отклика задается линиями уровня.

2.

3.

 
x 2


4.

x 1
 
 

5. Рис. 4. Схема метода Бокса–Уилсона

6.

Рассмотрим в качестве примера использование метода Бокса−Уилсона для поиска максимума функции

. (6.11)

Допустимая область изменения переменных: 0£ х 1£20, 0£ х 2£10, 1£ х 3£15. Начальная точка поиска х 0= =(3,2,4). Линейное приближение будем строить в окрестности начальной точки, задаваемой условиями: , i =1,2,3. Значения D i  желательно подбирать такими, чтобы приращения функции по каждому из аргументов были сопоставимы, то есть

. Примем D1=1, D2=2, D3=3. В соответствии с (6.1) стандартизованная переменная , если , и  при .

Линейная модель  требует для своей оценки не менее четырех экспериментов. Воспользуемся ДФЭ 23-1 с ГС:  (табл. 16).

7. Таблица 16

i х 1ст х 1 х 2ст х 2 х 3ст х 3 y
1 1 4 1 4 1 7 40,8
2 -1 2 1 4 -1 1 26,2
3 1 4 -1 0 -1 1 24,4
4 -1 2 -1 0 1 7 25,4

 

В последнем столбце табл.16 содержатся значения функции (6.11) для исходных переменных, то есть 40,8= у (4,4,7) и так далее.

МНК-оценки коэффициентов линейной модели составят:

; ; .

Отнормируем полученные компоненты градиента, поделив их на максимальное значение : b 1=3,4/4,3=0,79, b 2=1, b 3=0,91. Движение в направлении градиента представлено в табл.17.

Таблица 17

Формулы для вычисления компонент вектора

Номера компонент вектора

у

1-я 2-я 3-я
х 0 3 2 4 31,3
Di 1 2 3  
bi 0,79 1 0,91  
bi´ D i 0,79 2 2,73  
x 0+1´ bi´ D i 3,79 4 6,73 39,9
x 0+2´ bi´ D i 4,58 6 9,46 46,4
x 0+3´ bi´ D i 5,37 8 12,19 50,6
x 0+4´ bi´ D i 6,16 10 14,91 52,6

 

Движение в направлении градиента после четвертого шага невозможно из-за ограничения на х 3. Теперь следует определить градиент в точке x 0+3´ bi´ D i. Поскольку темп роста функции замедлился на последних шагах, область линейного описания следует сузить, уменьшив значения D i.

 

  1. Многомерное шкалирование. Неметрический подход.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: