ОСНОВНІ ПОНЯТТЯ І ВИЗНАЧЕННЯ НЕЧІТКИХ НЕЙРОННИХ (ГІБРИДНИХ) МЕРЕЖ

Нечітка нейронна мережа (fuzzy-neural networks) функціонує стандартним чином на основі чітких дійсних чисел. Нечіткої є тільки інтерпретація результатів.

Для пояснення суті нечітких нейронних мереж, розглянемо просту нейронну є, що має два входи і тільки один нейрон (рис. 21).

Елементарна нейронна мережа

Мал. 21 - Елементарна нейронна мережа

Тут вхідні сигнали х, «взаємодіють» з вагами vr, утворюючи твори

Така приватна інформація (твори) об'єднуються з використанням операції підсумовування, утворюючи вхід net нейрона:

Вихід нейрона утворюється в результаті перетворення входу net деякої активаційною функцією:

наприклад, сигмоїдальна типу

Наведену однослойную нейронну мережу, в якій використовуються операції множення, підсумовування і сигмоїдальна функція активації, будемо називати стандартної нейронною мережею.

У разі застосування інших операцій, таких як t-норма чи t-конорма (підрозділ. 1.5), прийдемо до нейронної мережі, яка буде називатися нечіткої нейронної мережею.

Нечітка нейронна (гібридна) мережу - це нейронна мережа з чіткими сигналами, вагами і активаційною функцією, але з об'єднанням х, і vv ,, і р 2 з використанням t-норми, t-конорми або деяких інших безперервних операцій. Входи, виходи і ваги нечіткої нейронної мережі речові числа, що належать відрізку [0, 1]. Нечіткої нейронної мережею зазвичай називають чітку нейронну мережу, яка побудована на основі багатошарової архітектури з використанням «І», «АБО» нейронів.

Розглянемо наступні приклади елементарних нечітких нейронних мереж.

Нечіткий нейрон «І». Сигнали х, - і vv, в даному випадку об'єднуються за допомогою трикутної конорми:

а вихід утворюється із застосуванням трикутної норми (рис. 22):

якщо прийняти

тоді нечіткий нейрон «І» реалізує композицію min-max:

Структура гібридного нейрона «І»

Рис, 22 - Структура гібридного нейрона «І»

Нечіткий нейрон «АБО». Сигнали і w, тут об'єднуються за допомогою трикутної норми: p i = T [x i w.), / = 1,2,

а вихід утворюється із застосуванням трикутної конорми (рис. 23):

Структура гібридного нейрона «АБО»

Рис, 23 - Структура гібридного нейрона «АБО»

Якщо прийняти Т = min, S = max, тоді нечіткий нейрон «АБО» реалізує композицію max-min: у = max (w, д х { , w 2 д х 2 ).

Нечітка нейронна мережа як правило складається з чотирьох шарів: шару фазифікація вхідних змінних, шару агрегування значень активації умови, шару агрегування нечітких правил і вихідного шару.

Нечітка нейронна мережа являє собою набір нечітких правил, які описують класи в наявному наборі вихідних даних, і нечітку систему виводу для їх переробки з метою отримання результату діагностики [12]. Фрагмент нечіткої нейронної мережі представлений на малюнку 24.

Схема нечіткої нейронної мережі

Рис . 24 - Схема нечіткої нейронної мережі

На схемі показана нечітка нейронна мережа з чотирма входами (п = 4). Шари позначені символами від L1 до L5. Елементи, позначені символом П (мультиплікатори), перемножують все вхідні сигнали, елементи, позначені символом? (Суматори) - підсумовують їх. Призначення шарів, наступне: перший шар - терми вхідних змінних; другий шар - антецеденти (посилки) нечітких правил; третій шар - нормалізація ступенів виконання правил; четвертий шар - укладення правил; п'ятий шар - агрегування результату, отриманого за різними правилами. Входи мережі в окремий шар не виділяються.

Кожен елемент шару 1 (L1) представляє один терм з функцією приналежності. Входи мережі з'єднані тільки зі своїми термами. Кількість вузлів першого шару дорівнює сумі потужностей терм-множин вхідних змінних. Виходом вузла є ступінь приналежності значення вхідної змінної відповідного нечіткого терму // ^ (*,) - Фактично, в цьому шарі оцінюється ступінь приналежності вхідних даних *. до відповідних нечітким множинам А до . Функціональна залежність між входом і виходом в вузлах цієї мережі визначається за формулою:

Її параметри с, а й b будуть модифікуватися в процесі навчання, що дозволить поліпшити підбір нечітких множин. Факт фізичної інтерпретації цих параметрів дозволяє отримати хорошу початкове розміщення функції приналежності нечітких множин, а також аналізувати її в процесі навчання.

Кількість вузлів шару 2 (L2) одно ш. Кожен вузол цього шару відповідає одному непевному правилом. Вузол другого шару з'єднаний з тими вузлами першого шару, які формують антецеденти відповідного правила. Отже, кожен вузол другого шару може приймати від 1 до п вхідних сигналів. Виходом вузла є ступінь виконання правила (вага деякого правила).

Кількість елементів цього шару дорівнює кількості правил N. Кожен вузол пов'язаний з попереднім шаром таким чином, що вузол шару L2, відповідний до -му правилом, з'єднаний з усіма вузлами шару L1, відповідними нечітким множинам суджень цього правила.

Кожен / -Й вузол шару 3 (L3) визначає відношення ваги / -го правила до суми ваг всіх правил:

Вихідні сигнали 3-го шару називаються нормалізованими вагами.

Кожен вузол шару 4 (L4) з'єднаний з одним вузлом третього шару, а також з усіма входами мережі. Вузол четвертого шару розраховує внесок одного нечіткого правила в вихід мережі:

де з. - вихідний сигнал 3-го шару, {/ ?,, #,, /; } - набір параметрів даного шару (так звані параметри виведення).

Шар 5 (L5) являє собою реалізацію блоку дефазифікації, що реалізує залежність.

Ваги зв'язків, що доходять до верхнього вузла шару L4 і позначені у, інтерпретуються як центри функцій приналежності нечітких множин А до . Ці ваги, також як і значення параметрів х /, в шарі L1, будуть модифікуватися в процесі навчання. На виході шару L5 формується «чітке» (дефазіфіцірованное) вихідне значення модуля управління у. Представлена на малюнку 24 структура має багато спільного з нейронними мережами вона являє собою багатошарову мережу, засновану на ідеї нечіткого виведення. На відміну від «чистих» нейронних мереж, кожен шар в цілому і окремі складові його елементи, також, як і конфігурація зв'язків, всі параметри і ваги мають фізичну інтерпретацію. Це властивість виявляється надзвичайно важливим, оскільки знання не розподіляються по мережі і можуть бути легко локалізовані і при необхідності відкориговані експертом-спостерігачем.

Розглянуті вище етапи нечіткого виводу можуть бути реалізовані неоднозначним чином, оскільки включають в себе окремі параметри, які повинні бути фіксовані або специфіковані. Тим самим вибір конкретних варіантів параметрів кожного з етапів призначає Він деякий алгоритм, який реалізує нечіткий висновок в системах правил нечітких продукцій. Один з таких алгоритмів - алгоритм Сугено. Його основна особливість полягає в тому, що укладення правил задаються лінійною функцією від входів. Швидкі алгоритми навчання та интерпретируемость накопичених знань - ці фактори зробили сьогодні нечіткі нейронні мережі одним з найперспективніших і ефективних інструментів м'яких обчислень. Найбільшого поширення в даний час отримали архітектури нечіткої нейронної мережі виду ANFIS і TSK. Доведено, що такі мережі є універсальними аппроксіматорамі.

 
Переглянути оригінал
< Попер   ЗМІСТ   ОРИГІНАЛ   Наст >