Решение дополнительных задач с помощью нейросетевых компонентов

Прямой задачей интеллектуального блока является получение значения количественной или качественной оценки, характеризующей вектор входных параметров. Учитывая специфику применения интеллектуального блока в составе информационной системы, актуальны также некоторые дополнительные задачи, связанные с получением информации об исследуемом объекте или процессе и о модели получения решения.

Традиционно нейронная сеть рассматривается как «черный ящик» с точки зрения получения информации о способе преобразования входных переменных в выходные. Однако, пользователь информационной системы может быть заинтересован не только в получении некоторого целевого значения, но и в пояснении, какие входные параметры являются определяющими для формирования ответа, каков характер влияния каждого входного параметра на целевой, как необходимо изменить входные переменные, чтобы добиться требуемого значения выходной переменной. Получение перечисленной информации составляет дополнительную задачу для нейросетевого блока. Приведем методы ее решения.

Обученная нейронная сеть представляет собой информационную модель объекта или процесса, описываемого набором эмпирических данных. Следовательно, ее можно использовать в качестве имитационной модели для оценки качества полученного решателя или получения нового знания.

Пусть F( x ) ­– нейросетевая аппроксимация некоторой неизвестной функции y( x ), после окончания обучения параметры а фиксированы и не влияют на значение F( a,x ). Выбранная нейросетевая парадигма обеспечивает построение непрерывной дважды дифференцируемой функции от х и позволяет нам эффективно вычислять и в любой точке Х.

Приведем алгоритм вычисления :

Для выходного слоя:

. (4.30)

Для слоя, посылающего сигналы выходному слою нейронной сети:

, (4.31)

где

(4.32)

Последовательно вычисляя производные по формуле (4.31) от выходного слоя к входному, мы получим значения для каждого входного параметра.

Значения производных могут быть непосредственно интерпретированы экспертом как характеристика влияния входных параметров на значение выходного в данной точке. Если в некоторой точке x выполняется условие < 0, то параметр xl при увеличении будет уменьшать значение целевого параметра, при >0 увеличение параметра xl способствует увеличению F (x), | | характеризует скорость изменения F (x) при изменении xl. В связи с нелинейностью нейросетевой модели, значения в общем случае будут отличаться в разных точках пространства Х.

На основе полученных значений могут быть определены различные содержательные характеристики взаимосвязи входных и выходных параметров. Приведем некоторые из них:

1. Среднее значение по выборке . Может интерпретироваться как влияние параметра «в среднем».

2. Минимальное значение , максимальное значение по выборке . Показывает разброс возможных значений производной. Может служить показателем степени линейности зависимости выходного параметра от входного – чем меньше разброс, тем более гладкая зависимость.

Информация о величине производных нейросетевой функции по входным параметрам может быть полезной как для получения нового знания об объекте исследования, так и для контроля качества модели экспертом, который может сравнить полученные данные с собственным опытом и сделать вывод о степени адекватности модели.

Значения производных могут быть также использованы для поиска экстремумов F( x ) градиентными методами. Ставится задача условной оптимизации: найти значение x *, такое, что

x* = argmax F (x)| x*Î Dopt, Dopt ={ x 11£ x 1£ x 12, x 21£ x 2£ x 22,…, x n1£ x n£ x n2} (4.33)

Аналогично ставится задачи минимизации F (x).

Область поиска оптимального значения Dopt задается системой линейных ограничений на Х, которые определяются ограничениями параметров предметной области или целями исследователя. Пример подобной задачи: найти максимальную комплексную оценку финансового состояния ВУЗа при текущих ограничениях на некоторые параметры и значения финансовых показателей, которые максимизируют эту оценку.

Для решения этой задачи предлагается использовать методы градиентного поиска, что может существенно упростить реализацию решения. Параметры нейронной сети фиксируются и изменяются только значения входных переменных х.

Вычисление градиентов основано на формулах (4.31), (4.32). При задаче максимизации в качестве правила изменения х выбирается направление градиента

, (4.34)

при задачах минимизации – направление антиградиента. Для поиска оптимума могут применяться и более мощные методы, например (4.23). Для контроля за значениями х предлагается использовать метод ограничений:

(4.35)

После окончания поиска значения параметров в точке х * преобразуются в естественный масштаб измерения путем линейного преобразования (4.3).

Приведем алгоритм решения задачи (4.33):

1. Выбор начальной точки х 1. В качестве начальной точки может приниматься любая точка из Dopt, в частности, точка, характеризующая текущее положение объекта.

2. Вычисление для текущей точки х i по формулам (4.31), (4.32).

3. Выбор направления оптимизации в соответствии с методом (4.34) или (4.23).

4. Одномерная оптимизация шага градиентного спуска h в выбранном направлении.

5. Изменение х i в соответствии с методом (4.34) или (4.23) с учетом (4.35).

6. Если (|| ||>0), то перейти к п.2, иначе - конец обучения.

С задачей поиска экстремума F( x ) связана задача поиска точек на Х, в которых F( x ) принимает заданные значения (поиск решения обратной задачи). Для этого вводится функция оценки вида (4.9), где в качестве y принимается требуемое значение F( x ), веса синапсов фиксируются, и формулы (4.18)-(4.21) применяются для поиска значения . Алгоритм решения обратной задачи:

1. Выбор начальной точки х 1. В качестве начальной точки может приниматься любая точка из Х, в частности, точка, характеризующая текущее положение объекта.

2. Вычисление F( a, x ) для текущей точки х i.

3. Вычисление для текущей точки х i по формулам (4.18)-(4.21).

4. Выбор направления оптимизации в соответствии с методом (4.22) или (4.23).

5. Одномерная оптимизация шага градиентного спуска h в выбранном направлении.

6. Изменение х i в соответствии с методом (4.22) или (4.23) с учетом (4.35).

7. Если (|| ||>0), то перейти к п.2, иначе - конец обучения.

В связи с тем, что используемые методы оптимизации могут приводить к локальным экстремумам, процедура повторяется для нескольких начальных точек.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: