АРХІТЕКТУРА NNFLC (NEURONS NETWORK FUZZY LOGIC CONTROLLER)

NNFLC - нечіткий контролер на основі нейронної мережі. Структура NNFLC приведена на рис. 26. Особливість структури NNFLC - це різна функціональність шарів. Опишемо коротко функції шарів.

Шар 2. у 1 - min Гу, * Шар 2 моделює І-умови

правил.

Шар 3. У ^ = тахГу [ 2 ..., у ^ 1 - функція робочого режиму, яка представляє собою АБО-комбінацію правил з однаковими термами в консеквснтах. У режимі навчання шар налаштовує пара метри функцій приналежності вихідних змінних.

Структура мережі NNFLC

Мал. 26 - Структура мережі NNFLC

Шар 4. У робочому режимі нейрони виконують дефаззіфіка- цію, а в режимі навчання це додатковий вхід, який виконує нормалізацію:

Навчання нейронної мережі складної архітектури (з різними функціональними шарами) зазвичай відбувається багатоетапне, причому на кожному етапі використовуються різні алгоритми навчання: нредобученіе (offline), оперативне (online), без учителя, з учителем. Структура нечіткої нейронної мережі NNFLC инициализируется за принципом формування повної матриці правил.

Якщо х, - вхідні змінні, Т (л ' ( ) - кількість нечітких м <ток (розбиття) х ,, то вихідне кількість правил: Т = J "[r (.v f )

- кількість нечітких ме

Загальна схема навчання нечіткої НЕ NNFLC містить наступні етапи:

  • - формування навчальних даних;
  • - самоорганізована кластеризація (настройка функцій приналежності);
  • - змагальне навчання (алгоритм переможця);
  • - видалення правил;
  • - комбінування правил;
  • - остаточна настройка пара метрів (тюнінг) функцій приналежності за допомогою алгоритму зворотного поширення помилки.

Далі наведемо змістовні характеристики етапів навчання. Налаштування параметрів функцій приналежності включає в себе навчання центрів з, і ширини <т, для функції приналежності, представленої функцією форми:

Алгоритм переможця виявляє

де i} (t) - монотонно спадною рівень навчання. Налаштування ширини ег здійснюється евристичний, наприклад по прин-

, Я - пара-

ципу «першого найближчого сусіда»: сг =

мстр перекриття. Знайти матрицю ваг иг, яка оцінює якість зв'язків лівої і правої частин правил можна на основі алгоритму переможця

Комбінування правил часто доцільно виконати за участю експерта. Остаточне налаштування функцій приналежності виконується за допомогою алгоритму зворотного распро-

странения помилки для функції помилки е. -d k . Цепоч

ка правил поширює помилку до шару 1 зі зворотним роутін- гом. Таким чином, можна зробити висновок про те, що архітектура NNFLC може бути проінтерпретувати як система нечіткого виведення Такагі-Сугено.

 
Переглянути оригінал
< Попер   ЗМІСТ   ОРИГІНАЛ   Наст >