Сеть Такаги-Сугено-Канга

Структура ANFIS

Нечеткие нейронные (гибридные) сети

Сети данного типа получили свое название в силу того, что для аппроксимации зависимости выходного сигнала от входного вектора X=[x1, x2,..., xN, ]T в них используются выражения, заимствованные из нечетких систем (в частности, из систем Мамдани и Такаги-Сугено).

Теоретически доказано, что эти выражения позволяют с произвольной точностью аппроксимировать любую непрерывную нелинейную функцию многих переменных суммой функций (называемых нечеткими) одной переменной.

Пример 1

Пример 2

Пример 3

Гибридная нейронная сеть, отражающая данный механизм, представлена на рис.

Нечеткий гибридный классификатор

В сети Такаги-Сугено-Канга (сокращенно, TSK) выходной сигнал рассчитывается с помощью выражения

y(X)=sum[i=1:M](wi*yi (X))/sum[i=1:M](wi),

где yi(X)=pi0+sum[j=1:N](pij*xj) - i-ый полиномиальный компонент аппроксимации.

Веса wi компонентов рассчитываются по следующей формуле (с использованием рациональной формы функции Гаусса)

wi=prod[j=1:N](wij(xj))=prod[j=1:N](1/(1+((xj-cij)/sij)2*bij)).

Приведенным выражениям соответствует пятислойная нейронная сеть, структурная схема которой представлена ниже.

Первый слой содержит N*M узлов, каждый из которых реализует расчет функции Гаусса с параметрами cij, sij и bij. С точки зрения нечетких систем это слой фуззификации входных переменных. Слой называется параметрическим, поскольку в процессе обучения сети подбору подлежат параметры этого слоя.

Второй слой параметров не содержит. С точки зрения нечетких систем это слой агрегирования левых частей продукций.

Третий слой - генератор (полиномиальных) функций TSK yi(X) и их умножитель на весовой коэффициент wi. Это параметрический слой, в котором в процессе обучения сети адаптации подвергаются коэффициенты pij, i =1,2,..., M, j =0,1,..., N. Общее количество коэффициентов pij в сети равно M*(N+1).

Четвертый слой составляют два нейрона-сумматора. Первый ряссчитывает взвешенную сумму сигналов yi(X), а второй - сумму весов wi, i =1,2,..., M. Это непараметрический слой.

Последний, пятый, слой осуществляет нормализацию весов. Это также непараметрический слой.

Из описания сети TSK следует, что она содержит два параметрических слоя (первый и третий), параметры которых подлежат подбору в процессе обучения.

Параметры первого слоя будем называть нелинейными, так как они относятся к нелинейной функции, а параметры третьего слоя - линейными.

Общее количество параметров (линейных и нелинейных) сети TSK равно

M*3*N+M*(N+1)=M*(4*N+1).

Во многих практических приложениях это чрезмерная величина, поэтому часто для входных переменных xj используют ограниченный набор функций mu(xj), что уменьшает количество нелинейных параметров.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: