Hold off

Рисунок 11 - Тестирование нечеткой модели после ANFIS-обучения

Исследуем как зависит адекватность нечеткой модели от длительности обучения. Для этого вызовем функцию anfis в следующем формате:

[fis3,trnErr,stepSize,fis4,chkErr]=anfis([datin datout],fis,[200 0 0.1],[], [chkdatin chkdatout]);

Третий входной аргумент этой функции задает 200 итераций обучения. При обучении используется и тестирующая выборка, заданная четвертым входным аргументом функции anfis. Длинный список выходных аргументов возвращает протокол обучения модели: размер шага (stepSize), ошибки моделирования на обучающей (trnErr) и тестирующей (chkErr) выборках на каждой итерации алгоритма. После 200 итераций алгоритма минимальные ошибки на обучающей и тестирующих выборках равны 0.326566 и 0.582545, соответственно. На первый взгляд может показаться, что длительное обучение привело к хорошим результатам - предыдущие модели имели большие значения ошибок. Однако, указанные минимальные значения ошибок соответствует не одной и той же модели, а двум: fis3 - нечеткая модель с минимальной ошибкой на обучающей выборке и fis4 - нечеткая модель с минимальной ошибкой на тестирующей выборке. Посмотрим, на каких итерациях алгоритма обучения получены нечеткие модели с минимальными ошибками. Для этого выведем кривые обучения с помощью команд:

plot(1:200, trnErr, 'r--', 1:200, chkErr, 'b-');

legend ('ошибка на обучающей выборке', 'ошибка на тестирующей выборке');

Из кривых обучения (рис. 9.4) видно, что ошибка на тестирующей выборке имеет тенденцию к уменьшению на протяжении около 50 итераций. Наименьшее значение этой ошибки достигается на 52-й итерации алгоритма обучения. После этого значение ошибки на тестирующей выборке начинает немного возрастать, хотя функция anfis продолжает минимизировать ошибку на обучающей выборке на протяжении всех 200 итераций. Начиная с 52-й итерации проявляется эффект переобучения, состоящий в потере генерализирующих свойств модели. Переобученная модель очень хорошо отражает реальность, репрезентированной обучающей выборкой. Вне точек обучения адекватность такой модели низкая - результаты моделирования сильно отличаются от экспериментальных данных. Для недопущения переобучения обычно используют тактику "раннего останова" ‑ прекращение обучения при возрастании ошибки на тестирующей выборке.

Рисунок 12 - Графики зависимости ошибок нечеткого моделирования от количества итераций обучения


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: