Шаг 1. Взвешенная сумма: На этом шаге происходит вычисление взвешенной суммы весов соединений между входным и скрытым слоями. Соединение осуществляется посредством четырех определенных типов весов. Они делятся на два класса: Устанавливаемые веса (Set Weight) и все остальные. При некоторых условиях (определяемых с помощью управляющей стратегии) для определения взвешенной суммы рассматриваются только устанавливаемые веса. В других случаях рассматриваются все веса. В дополнение к простой взвешенной сумме программа поддерживает различные способы вычисления суммы: минимум, максимум, мажоритарность, произведение и несколько вариантов нормализации.
Шаг 2. Передаточная (активационная) функция: Результат взвешенной суммы преобразуется в выходной сигнал с помощью передаточной функции. Перед применением передаточной функции к сумме может быть добавлен равномерно распределенный случайный шум. Источник и размер помехи определяются текущим режимом (обучением или функционированием) и соответствующим значением коэффициента температуры (Temperature) из таблицы плана обучения и функционирования (Learning and Recall Schedule). Можно использовать следующие активационные функции: линейная, BSB (brain-state-in-a-box), персептрон, сигмоидальная, гиперболический тангенс, синус и др. Для некоторых из них значение помехи будет предварительно умножено на коэффициент усиления (Gain), взятый из соответствующей строки той же таблицы.
Шаг 3. Масштабирование и ограничение: После преобразования результат масштабируется и ограничивается. Масштабирование, например, линейного преобразования имеет следующий вид:
Масштабный коэффициент * Преобразованное значение + Смещение
Масштабирование полезно во входном слое для отображения входных значений в соответствующие уровни. В выходном слое может быть произведено обратное преобразование данных.
Ограничение связано с приведением масштабированного результата к верхней и нижней границам.
Шаг 4. Соревнование (Выходная функция):
Этот шаг обеспечивает способ, в соответствии с которым процессорные элементы соревнуются в слое. Соревнование может происходить на одном или обоих уровнях: сначала определяется, какой элемент будет активен (будет обеспечивать выходной сигнал); затем, какой будет участвовать в обучении или процессе адаптации.
Литература
1. Минский М., Пейперт С. Персептроны. - М.: Мир, 1971.
2. Горбань А.Н. Обучение нейронных сетей.- М.: СП "Параграф", 1990.
3. Уоссермен Ф. Нейрокомпьютерная техника. Теория и практика. -М.: Мир,1992.
4. Корнеев В.В. Параллельные вычислительные системы. – М., 1999.
5. Кирсанов Э.Ю. Цифровые нейрокомпьютеры (Архитектура и схемотехника). Казань, 1995.
6. Круглов В.В., Борисов В.В. Искуственные нейронные сети. Теория и практика. М., Горячая линия-Телеком, 2001.
7. Виксне П.Е, Фомин Д.В, Черников В.М. Однокристальный цифровой нейропроцессор с переменной разрядностью операндов.- "ПРИБОРОСТРОЕНИЕ". Тематический выпуск. Аппаратно-программные комплексы поддержки нейровычислений 7/1996.