· по типу входной информации:
- Аналоговые нейронные сети (используют информацию в форме действительных чисел);
- Двоичные нейронные сети (оперируют с информацией, представленной в двоичном виде).
· по характеру обучения
- Обучение с учителем — выходное пространство решений нейронной сети известно;
- Обучение без учителя — нейронная сеть формирует выходное пространство решений только на основе входных воздействий. Такие сети называют самоорганизующимися;
- Обучение с подкреплением — система назначения штрафов и поощрений от среды.
· по характеру настройки синапсов
- Сети с фиксированными связями (весовые коэффициенты нейронной сети выбираются сразу, исходя из условий задачи, при этом:
,где W — весовые коэффициенты сети);
сети с динамическими связями (для них в процессе обучения происходит настройка синаптических связей, то есть
, где W — весовые коэффициенты сети).
· по времени передачи сигнала
В ряде нейронных сетей активирующая функция может зависеть не только от весовых коэффициентов связей wij, но и от времени передачи импульса (сигнала) по каналам связи τij. Поэтому в общем виде активирующая (передающая) функция связи cij от элемента ui к элементу uj имеет вид:
Тогда синхронной сетью называют такую сеть, у которой время передачи τij каждой связи равно либо нулю, либо фиксированной постоянной τ. Асинхронной называют такую сеть, у которой время передачи τij для каждой связи между элементами ui и uj свое, но тоже постоянное.
· по характеру связей
- Сети прямого распространения (Feedforward)
Все связи направлены строго от входных нейронов к выходным. Примерами таких сетей являются перцептрон Розенблатта, многослойный перцептрон, сети Ворда.
- Рекуррентные нейронные сети
Сигнал с выходных нейронов или нейронов скрытого слоя частично передается обратно на входы нейронов входного слоя (обратная связь). Рекуррентная сеть Хопфилда «фильтрует» входные данные, возвращаясь к устойчивому состоянию и, таким образом, позволяет решать задачи компрессии данных и построения ассоциативной памяти. Частным случаем рекуррентных сетей является двунаправленные сети. В таких сетях между слоями существуют связи как в направлении от входного слоя к выходному, так и в обратном. Классическим примером является Нейронная сеть Коско.
- Радиально-базисные функции
Искусственные нейронные сети, использующие в качестве активационных функций радиально-базисные (такие сети сокращённо называются RBF-сетями). Общий вид радиально-базисной функции:
например,
где x — вектор входных сигналов нейрона,
σ — ширина окна функции,
φ(y) — убывающая функция (чаще всего, равная нулю вне некоторого отрезка).
Радиально-базисная сеть характеризуется тремя особенностями:
1. Единственный скрытый слой
2. Только нейроны скрытого слоя имеют нелинейную активационную функцию
3. Синаптические веса связей входного и скрытого слоев равны единице.
· Самоорганизующиеся карты
Такие сети представляют собой соревновательную нейронную сеть с обучением без учителя, выполняющую задачу визуализации и кластеризации. Является методом проецирования многомерного пространства в пространство с более низкой размерностью (чаще всего, двумерное), применяется также для решения задач моделирования, прогнозирования и др. Является одной из версий нейронных сетей Кохонена. Самоорганизующиеся карты Кохонена служат, в первую очередь, для визуализации и первоначального («разведывательного») анализа данных.
· Известные типы сетей
- Персептрон Розенблатта;
- Многослойный перцептрон;
- Сеть Джордана;
- Сеть Элмана;
- Сеть Хэмминга;
- Сеть Ворда;
- Сеть Хопфилда;
- Сеть Кохонена;
- Нейронный газ;
- Когнитрон;
- Неокогнитрон;
- Хаотическая нейронная сеть;
- Осцилляторная нейронная сеть;
- Сеть встречного распространения;
- Сеть радиальных базисных функций (RBF-сеть);
- Сеть обобщенной регрессии;
- Вероятностная сеть;
- Сиамская нейронная сеть;
- Сети адаптивного резонанса.
- Свёрточная нейронная сеть (convolutional neural network). [4]