АЛГОРИТМ НЕЧІТКОЇ САМООРГАНІЗАЦІЇ C-MEANS

Алгоритм самоорганізації приписує вектор х до відповідної групи даних, які подаються центром з " з використанням навчання конкурентного типу подібно мереж Кохонсна. При навчанні цього типу процес самоорганізації стає можливим за умови пред'явлення вектора х.

Припустимо, що в мережі існує М нечітких нейронів з центрами в точках з (/ = 1,2, ..., М). Початкові значення цих центрів можуть бути обрані випадковим чином з областей допустимих значень відповідних компонентів векторів лг (/ = 1,2, ..., /?), Використаних для навчання. Нехай функція фуззіфікаціі задана в формі узагальненої функції Гаусса, вираженої формулою.

Подається на вхід мережі вектор х буде належати до різних груп, що подаються центрами з "певною мірою і," причому 0 < и-, <1, а сумарна ступінь приналежності до всіх груп, очевидно, дорівнює одиниці. Тому

для t = 1,2, ..., р. Функцію похибки, відповідну такому уявленню, можна визначити як суму приватних похибок приналежності до центрів з, з урахуванням ступеня приналежності н "Отже

де ш - це ваговий коефіцієнт, який приймає значення з інтервалу [1, оо), на практиці часто приймають гп = 2. Мета навчання з самоорганізацією полягає в такому підборі центрів з "щоб для заданої множини навчальних векторів х { ' ] забезпечити досягнення мінімуму функції при одночасному дотриманні умов обмеження. Таким чином виникає задача мінімізації нелінійної функції з р обмеженнями типу. Вирішення цього завдання можна звести до мінімізації функції Лагранжа, визначеної у вигляді [13].

де Я ( (? = 1,2, ..., /?) - це множники Лагранжа. Доведено, що рішення задачі можна представити у вигляді

де с / "- це евклідова відстань між центром с, і вектором х" d jt = | з ( - х, II. Оскільки точні значення центрів з, на початку процесу не відомі, алгоритм навчання має бути ітераційним:

виконати випадкову ініціалізацію коефіцієнтів м, "вибираючи їх значення з інтервалу [0,1] таким чином, щоб за умови;

визначити М центрів з, відповідно до;

розрахувати значення функції похибки відповідно до. Якщо її значення нижче встановленого порогу, або якщо зменшення цієї похибки щодо попередньої ітерації дуже малий, то закінчити обчислення. Інакше, перейти до п.4;

розрахувати нові значення і ,, за формулою і перейти до п.2.

Багаторазове повторення итерационной процедури веде до досягнення мінімуму функції Е, який необов'язково буде глобальним.

Значення функції Е істотно залежить від початкової ініціалізації значень м "і центрів з ,. Тому, попередньо слід використовувати алгоритми ініціалізації, найбільш відомими серед яких є алгоритми пікового і різницевого групування.

 
Переглянути оригінал
< Попер   ЗМІСТ   ОРИГІНАЛ   Наст >