Навігація
Головна
 
Головна arrow Техніка arrow БІОТЕХНІЧНІ СИСТЕМИ МЕДИЧНОГО ПРИЗНАЧЕННЯ
Переглянути оригінал

МЕТОДИ СТАТИСТИЧНОЇ ОБРОБКИ МЕДИКО-БІОЛОГІЧНИХ ДАНИХ

В основі автоматизованих систем діагностики різних хвороб лежать бази даних за показниками - МБС цих хвороб, отриманих в результаті дослідження здорових і хворих пацієнтів різної статі і віку. Такі дослідження називаються епідеміологічними.

В силу стохастичности патологічних процесів фізіологічні показники мають значною варіабельністю. Це призвело до створення різноманітних діагностичних методів, алгоритмів і приладів, застосування і вивчення яких утруднено. У той же час стохастический характер МБС дозволяє підійти до розробки систем обробки МБС як до систем передачі, перетворення і подання реалізацій випадкового процесу, формування оцінок статистичних характеристик.

Випадковою величиною х (к) називається функція множин, яка визначається в точках до вибіркового простору. Це дійсне число, яке зіставляється кожної вибіркової точці.

Під вибірковим простором розуміють можливі наслідки вимірювань, що представляють собою безліч точок.

Найбільш проста оцінка випадкової величини - її середнє значення (перший момент). Якщо є вибірка значень X = = (jci, JC2, ..., хь Xji) y то з даного фізіологічного показника X середнє значення можна обчислити за формулою

Наприклад, загальновідомий фізіологічний показник - нормальна температура Т внутрішніх порожнин тіла дорослої людини; має середнє значення рт = 36,6 ° С. Підвищений або знижений значення температури Т , точніше, різниця | p r - Т є первинним діагностичним показником різних захворювань.

Однак одного діагностичного показника для ідентифікації хвороби недостатньо, у зв'язку з чим використовують набір, або вектор, фізіологічних показників, наприклад кластерний аналіз.

Кластерний аналіз. В даний час МБС реєструють і аналізують за допомогою численних методів, які умовно можна розділити на три великі групи.

  • 1. Візуальні (якісні). Лікар спостерігає за МБС і на підставі попередніх спостережень і знань, отриманих дослідним шляхом, робить якісь висновки. Незважаючи на низьку точність (з боку математичного опису), цей метод найбільш поширений і при наявності достатнього досвіду лікаря дає високі результати.
  • 2. Математичні (кількісні). При обробці МБС обчислюються його всілякі параметри, на підставі аналізу яких лікар ставить діагноз. З позиції математичного опису, ці методи значно більш точні, однак вимагають досить високого рівня знань лікаря в області теорії ймовірності та математичної статистики, внаслідок чого не завжди застосовуються.

Рішення діагностичної задачі (віднесення об'єкта до норми або патології) пов'язане з ризиком помилкової тривоги (помилка першого роду) або пропуску цілі (помилка другого роду). Для прийняття обґрунтованого рішення використовують методи теорії статистичних рішень, розроблені в радіолокації.

3. Змішані методи являють собою сукупність перших двох методів. До цієї групи можна віднести методи кластерного і контурного аналізу. Такий напрям є найбільш перспективним, так як не вимагає значних специфічних знань в математичній області від лікаря. Анализируемая інформація відображається графічно, що найбільш звично і зручно для лікаря. Використання колірної гами в методах контурного і кластерного аналізу особливо ефективно з фізіологічної точки сприйняття.

Формально під завданням кластерного аналізу заданої множини об'єктів розуміється розбиття цієї множини на непе- ресекающіеся підмножини (кластери) таким чином, щоб елементи, що відносяться до одній підмножині, відрізнялися між собою в значно меншій мірі, ніж елементи з різних підмножин.

У багатовимірному просторі діагностичних показників кластери норми і хвороб відображаються «хмарами» точок, розташованих в різних частинах цього простору, по-різному віддалених від «нормального хмари».

У геометричному відношенні кластери являють собою просторові образи тих чи інших захворювань. Розпізнавання цих образів дозволяє автоматизувати діагностику.

Загальна теорія розпізнавання образів - теоретичний фундамент для вирішення основного завдання медико-технічної діагностики. Ця теорія займається розпізнаванням образів будь-якої природи (геометричних, звукових, текстових і т. П.) І представляє розділ теорії управління (кібернетики). Медико-технічна діагностика розробляє алгоритми розпізнавання стосовно завдань діагностики, які зазвичай розглядають як завдання класифікації.

Алгоритми розпізнавання в медико-технічної діагностики засновані на діагностичних моделях, які встановлюють зв'язок між станами біологічного об'єкта і їх відображеннями - кластерами в просторі МБС. Важлива частина проблеми розпізнавання - правила прийняття рішень (вирішальні правила).

Класифікація образів за допомогою функцій відстані - одна з перших ідей автоматичного розпізнавання образів. Цей простий метод класифікації вельми ефективний при вирішенні таких завдань, в яких класи характеризуються ступенем мінливості, обмеженою в розумних межах. Далі детально розглянуті властивості і способи реалізації класифікаторів, заснованих на критерії мінімуму відстані.

Наприклад, зустрічаються класи, які можна охарактеризувати, вибравши по одному еталонному образу з класу. У цих випадках у образів будь-якого з розглянутих класів існує тенденція до тісної угрупованню навколо деякого образу, що є типовим або репрезентативним для відповідного класу. Подібні ситуації виникають, якщо ступінь мінливості образів невелика, а перешкоди легко піддаються обліку.

Типовим прикладом може служити зчитування банківських чеків за допомогою ЕОМ. Символи, що поміщаються на чеках, сильно стилізовані і зазвичай наносяться магнітної друкарською фарбою з тим, щоб спростити процес зняття показань. У подібних ситуаціях вектори образів (вимірювань) в кожному класі будуть майже ідентичні, оскільки однакові символи на всіх практично використовуваних чеках ідентичні. В таких умовах класифікатори, що діють за критерієм мінімуму відстані, можуть виявитися надзвичайно ефективним засобом вирішення задачі класифікації.

Іноді класи характеризують вибором кількох еталонних образів з класу. Припустимо, що кожен клас можна описати не єдиним, а декількома еталонними образами, т. Е. Будь-який образ, що належить класу А, виявляє тенденцію до угруповання навколо одного з еталонних образів Z |, Z2, ..., Z N ( ,

де Ni - кількість еталонних образів, що визначають Г'-й клас. В цьому випадку необхідно скористатися іншим класифікатором.

Як вибрати дії відстані в якості інструменту класифікації - природний наслідок тієї обставини, що найбільш очевидний спосіб введення міри схожості для векторів образів, інтерпретованих нами так само, як і точки в евклідовому просторі, - визначення їх близькості.

Образи, піддаються класифікації за допомогою поняття «близькість»

Мал. 10.1. Образи, піддаються класифікації за допомогою поняття «близькість»

Зокрема, вивчаючи рис. 10.1, можна прийти до висновку про приналежність вектора X класу С виключно з тих міркувань, що він знаходиться ближче до векторів образу класу С, ніж класу Сг.

Можна розраховувати на отримання задовільних практичних результатів при класифікації образів за допомогою функцій відстані лише в тих випадках, коли класи образів виявляють тенденцію до прояву кластерізаціонних властивостей.

Інтуїтивним ідеям необхідно надати загальну форму і розвинути їх на рівні відповідної математичної строгості.

У зв'язку з тим що близькість даного способу до образів деякого класу використовується як критерій для його класифікації, такий підхід називають класифікацією образів за критерієм мінімуму відстані. Оскільки кластерізаціонние властивості істотно впливають на роботу автоматичних класифікаторів, заснованих на критерії мінімуму відстані, запропоновано кілька алгоритмів знаходження кластерів.

Необхідно відзначити, що виявлення кластерів у багатьох відношеннях є «мистецтвом» вельми емпіричним. Якість роботи певного алгоритму залежить не тільки від характеру аналізованих даних, але і від обраної міри схожості образів і методу, що застосовується для ідентифікації кластерів в системі даних. Відповідні поняття, що розглядаються нижче, забезпечують основу для побудови систем розпізнавання без вчителя.

На формальному рівні для визначення кластера на безлічі даних необхідно в першу чергу ввести міру подібності, яка може бути покладена в основу правила віднесення образів до області, яка характеризується деяким центром кластера.

Раніше на прикладі температури тіла розглядалося евклідова відстань між образами гіг:

Цю характеристику використовують як міру подібності відповідних образів: чим менше відстань між ними, тим більше схожість. На цьому понятті засновані алгоритми, наведені далі.

Однак міри схожості не вичерпуються відстанями. Як приклад можна привести Неметричні функцію подібності

представляє собою косинус кута, який утворений векторами х і z, і досягає максимуму, коли їх напрямки збігаються. Цим заходом подібності зручно користуватися в тих випадках, коли кластери виявляють тенденцію розташовуватися уздовж головних осей. Слід зазначити, що використання даної міри пов'язано з такими певними обмеженнями, як, наприклад, достатня віддаленість кластерів один від одного і від початку координат.

Проблема визначення процедури розбиття аналізованих даних на кластери залишається відкритою і після вибору міри схожості образів. Критерій кластеризації може або відтворювати якісь евристичні міркування, або грунтуватися на мінімізації (або максимізації) якого-небудь показника якості.

При евристичному підході вирішальну роль відіграють інтуїція та досвід. Такий підхід передбачає завдання набору правил, які забезпечують використання обраної міри схожості для віднесення образів до одного з кластерів. Евклідова відстань добре пристосоване для такого підходу, що пов'язано з природністю його інтерпретації як міри близькості. Оскільки близькість двох образів є відносною мірою їх подібності, зазвичай доводиться вводити поріг, щоб встановити прийнятні ступеня подібності для процесу відшукання кластерів.

Підхід до кластеризації, який передбачає використання показника якості, пов'язаний з розробкою процедур, які забезпечують мінімізацію або максимізацію обраного показника якості.

Один з найбільш популярних показників - сума квадратів відхилень:

де N c / - число кластерів; Sj - безліч образів, що відносяться до j- го кластеру; ntj - вектор вибіркових середніх значень для безлічі 5 ,, »i ( = (l / Nj) ^ x ; Nj - число образів, що входять в

xeSj

безліч Sj.

Показник якості (10.2) визначає загальну суму квадратів відхилень характеристик всіх образів, що входять в певний кластер, від відповідних середніх значень по кластеру. Алгоритм, заснований на цьому показнику якості, розглядається далі.

Природно, існують інші показники якості: середня квадратів відстаней між образами в кластері; середнє квадратів відстаней між образами, що входять в різні кластери; показники, засновані на понятті матриці розсіювання; мінімум і максимум дисперсії і ін.

Нерідко застосовують алгоритми знаходження кластерів, засновані на спільному використанні евристичного підходу і показника якості. Подібної комбінацією є алгоритм ІСОМАД (ітеративний самоорганізується метод аналізу даних, англ. Isodata - Iterative Self-Organizing Data Analysis Techniques).

У світлі попередніх зауважень про стан справ в області кластеризації ця обставина не можна назвати несподіваним, так як якість окремих алгоритмів знаходження кластерів в значній мірі визначається здібностями його авторів по частині вилучення корисної інформації з аналізованих даних.

Алгоритми, наведені нижче, служать для цього хорошою ілюстрацією.

Простий алгоритм виявлення кластерів. Нехай задано безліч N образів {х ь х 2 , ..., x N } центр першого кластера г, - збігається з будь-яким із заданих образів, визначена довільна неотрицательная порогова величина Г; для, -зручність можна вважати, .що Z, = X /.

Обчислюється відстань D 2 , між образом х 2 і центром кластера z, за формулою (10.1). Якщо ця відстань більше значення порогової величини 7D 2 ,> Т, то створюється новий центр кластера z 2 = х 2 . В іншому випадку образ х 2 включається в кластер, центром якого є Zj.

Нехай умова D 2 ,> Т виконано, т. Е. Z 2 - центр нового кластера. На наступному кроці обчислюють відстані D-ц і D 32 від способу хз до центрів кластерів zj і z 2 . Якщо обидва відстані виявляються більше порогової величини Т, то створюється новий центр кластера z 3 = х 3 . В іншому випадку образ х 3 зараховується в той кластер, чий центр до нього ближче.

Аналогічно знаходять відстані від кожного нового способу до відомого центру кластера і порівнюють їх з пороговою величиною. Якщо всі ці відстані перевершують значення порогової величини Т, то встановлюється новий центр кластера. В іншому випадку образ зараховується в кластер з найближчою до нього центром.

Результати описаної процедури визначаються вибором першого центру кластера, порядком розгляду образів, значенням порогової величини Т і, звичайно, геометричними характеристиками даних. На рис. 10.2 наведені три варіанти вибору центрів кластерів для одних і тих же даних, що виникли в результаті зміни тільки значення порогової величини Т і положення вихідної точки кластеризації.

Варіанти (а - в) вибору центрів кластерів для одних і тих же даних, що виникли в результаті зміни значення порогової величини і положення вихідної точки

Мал. 10.2. Варіанти - в) вибору центрів кластерів для одних і тих же даних, що виникли в результаті зміни значення порогової величини і положення вихідної точки

Простий алгоритм виявлення кластерів має низку недоліків, проте він дозволяє просто і швидко отримати приблизні оцінки основних характеристик заданого набору даних. Крім того, цей алгоритм привабливий з обчислювальної точки зору, так як для знаходження центрів кластерів, що відповідають певному значенню граничної величини Т, потрібно тільки одноразовий перегляд вибірки.

Щоб добре зрозуміти геометрію розподілу образів за допомогою такої процедури, проводять численні експерименти з різними значеннями граничної величини і вихідними точками кластеризації. Оскільки досліджувані образи зазвичай мають високу розмірність, візуальна інтерпретація результатів виключається. У зв'язку з цим необхідну інформацію отримують в основному за допомогою зіставлення після кожного циклу перегляду даних відстаней, що розділяють центри кластерів, і кількості образів, які увійшли в різні кластери.

До корисних характеристик також відносять найближчу і найбільш віддалену від центру точку кластера і відмінність розмірів окремих кластерів. Інформація після кожного циклу обробки даних може використовуватися для корекції вибору нових значення порогової величини Т і вихідної точки кластеризації в наступному циклі. За допомогою подібної процедури можна домогтися корисних результатів в тих випадках, коли в даних є характерні «гнізда», які досить добре розділяються при відповідному виборі значення порогової величини.

Алгоритм До внутрішньогрупових середніх. Простий алгоритм виявлення кластерів відноситься, по суті, до евристичному підходу. Алгоритм До внутрішньогрупових середніх мінімізує показник якості, визначений як сума квадратів відстаней всіх точок, які входять в кластерну область, до центру кластера. Ця процедура, часто звана алгоритмом, заснованим на обчисленні До внутрішньогрупових середніх, складається з наступних кроків.

Крок 1. Вибір До вихідних центрів кластерів zi (l), z 2 (1), z * (1). Вибір проводять довільно, в якості вихідних центрів використовують перші До результатів вибірки із заданої множини образів.

Крок 2. Розподіл на до -му кроці ітерації заданого безлічі образів по До кластерам:

де Sj ( до ) - безліч образів, що входять в кластер з центром Zj {k). У разі рівності в (10.3) рішення приймається довільним чином.

Крок 3. Визначення на основі результатів кроку 2 нових центрів кластерів zj (k + 1 ), j = 1,2, ..., К, виходячи з умови, що сума квадратів відстаней між всіма образами, які належать безлічі Sj (к), і новим центром кластера повинна бути мінімальною.

Іншими словами, нові центри кластерів Zj (k +1) вибираються таким чином, щоб мінімізувати показник якості:

Центр Zj {k + 1), що забезпечує мінімізацію показника якості, являє собою вибіркове середнє, визначене за безлічі Sj {k). Отже, нові центри кластерів визначаються наступним чином:

де Nj - число вибіркових образів, що входять в безліч Sj (k).

Очевидно, що назва алгоритму К внутрішньогрупових середніх визначається способом, прийнятим для послідовної корекції призначення центрів кластерів.

Крок 4. Рівність z / k + 1) = Zj {k) при j = 1,2, ..., К є умовою збіжності алгоритму, при його досягненні виконання алгоритму закінчується. В іншому випадку алгоритм слід повторити починаючи з кроку 2.

Якість роботи алгоритмів, заснованих на обчисленні До внутрішньогрупових середніх, залежить від числа обираних центрів кластерів, вибору вихідних центрів кластерів, послідовності огляду образів і геометричних особливостей даних. Хоча для цього алгоритму загальне доказ збіжності невідомо, прийнятні результати можна очікувати в тих випадках, коли дані утворюють характерні «гнізда», віддалені один від одного досить далеко. У більшості випадків практичне застосування цього алгоритму вимагає проведення експериментів, пов'язаних з вибором різних значень параметра До і вихідного розташування центрів кластерів.

Алгоритм ІСОМАД в принципі аналогічний алгоритму обчислення До внутрішньогрупових середніх, оскільки і в ньому центрами кластерів служать вибіркові середні, які визначаються итеративно. Відмінність полягає в тому, що алгоритм ІСОМАД володіє великим набором допоміжних евристичних процедур, вбудованих в схему ітерації. Слід постійно мати на увазі визначення «евристичні», оскільки ряд описуваних нижче кроків увійшов в алгоритм в результаті осмислення емпіричного досвіду його використання.

До виконання алгоритму необхідно задати набір N d вихідних центрів кластерів z, z 2 , ..., z N ^. Цей набір, число елементів

якого має дорівнювати запропонованому кількості кластерів, може бути отриманий вибіркою образів із заданої множини даних.

При роботі з набором {* 1, ДГ 2 , ..., л>}, складеним з Аеле- ментів, алгоритм ІСОМАД виконує наступні основні кроки.

Крок 1. Завдання параметрів, що визначають процес кластеризації: К - необхідне число кластерів; 0, v - параметр, з яким порівнюється кількість вибіркових образів, які увійшли в кластер; 0 $ - параметр, що характеризує середньоквадратичне відхилення (СКО); © з - параметр, що характеризує компактність; L - максимальна кількість пар центрів кластерів, які можна об'єднати; / - допустиме число циклів ітерації.

Крок 2. Розподіл заданих N образів по кластерам, відповідним обраним вихідним центрам, за правилом xeSj (k),

якщо | дс - Zj I <|| лг - z, ||, i = 1, 2, ...., N d , i * j, що застосовується до всіх

образам х, який увійшов до вибірки; через Sj позначено підмножина вибіркових образів, включених в кластер з центром zj.

Крок 3. Ліквідація підмножини образів, до складу яких входить менше кількості © л - елементів, т. Е. Якщо для деякого числа j виконується умова Nj < © л -, то підмножина Sj виключається з розгляду і значення N d зменшується на 1.

Крок 4. Кожен центр кластера z ,, j = 1,2, ..., N d , локалізується і коригується за допомогою прирівнювання його вибіркового середнього, знайденому за відповідним подмножеству S /.

де Nj - число вибіркових образів, які увійшли в підмножина Sj.

Крок 5. Обчислення середньої відстані Dj між об'єктами, що входять в підмножина Sj, і відповідним центром кластера за формулою

Крок б. Визначення узагальненого середньої відстані між об'єктами, що знаходяться в окремих кластерах, і відповідними центрами кластерів за формулою

Крок 7. Якщо поточний цикл ітерації є останнім, то задається © з = 0 і переходять до кроку 11. Якщо виконується умова N c / < К / 2, то здійснюється перехід до кроку 8. Якщо поточний цикл ітерації має парний порядковий номер або виконується умова M c i> 2К, то переходять до кроку 11; в іншому випадку процес ітерації триває.

Крок 8. Обчислення вектора CKO про ; = (А 1; , a 2j , ..., а иу ) для

кожного підмножини вибіркових образів за допомогою співвідношення

де п - розмірність образу; x ik - г-я компонента до -го способу в підмножині Sj Zij - i-я компонента вектора, що представляє центр кластера zf, Nj - число вибіркових образів, які вийшли в підмножина Sj. Кожна компонента вектора СКО ст, характеризує СКО образу, що входить в підмножина Sj, по одній з головних осей координат.

Крок 9. Визначення максимальної компоненти ст утах в кожному векторі СКО про ,, у = 1,2, ..., N cl .

Крок 10. Якщо для будь-якої компоненти о, гаах , у = 1, 2, ..., N c i, виконуються умови про угаах > © с, Dj> D і Nj> 2 (@ N +1) або

N c i <К / 2, то кластер з центром z, розпадається на два нових кластера з центрами zj і zj, кластер з центром z y ліквідується, а значення N c i збільшується на 1. Для визначення центру кластера zj до компоненті Zj, що відповідає максимальній компоненті вектора Oj, додається задана величина у /, центр кластера zj знаходиться відніманням величини уу з тієї ж самої компоненти z y . Як величини у, можна вибрати деяку частку значення максимальної компоненти a jmm , т. Е. Прийняти у ; = Ko Jnm , де 0 <Л <1. При виборі величини у, слід керуватися в основному тим, щоб її значення було досить великим для визначення різниці в відстанях від довільного образу до двох нових центрів кластерів, але і досить малим, щоб загальна структура кластеризації істотно не змінилася.

Якщо розпад відбувається на цьому кроці, то слід перейти до кроку 2; в іншому випадку необхідно продовжити виконання алгоритму.

Крок 11. Обчислення відстані Dj між усіма парами центрів кластерів:

Крок 12. Порівняння відстані D : j з параметром 0 С . Кількість відстаней, значення яких виявилися меншими значення параметра © с, ранжируется в порядку зростання: [D t ^ > ^, 2 у 2 , •••> ^, L j L 1>

причому D, , <?> •, <... <D, i , a L - максимальна кількість

г > | Л '2J2' LJL '

пар центрів кластерів, які можна об'єднати.

Крок 13. Здійснення процедури злиття кластерів. Кожне відстань D j ji обчислено для певної пари кластерів з

центрами z i; і z y; . До цих парам в послідовності, відповідної збільшення відстані між центрами, застосовують процедуру злиття, яку здійснюють на основі наступного правила. Кластери з центрами z t / і Zj, i = 1,2, ..., L, об'єднуються

(За умови, що в поточному циклі ітерації процедуру злиття не застосовували до жодного, ні до іншого кластеру), причому новий центр кластера визначають за формулою

Центри кластерів z. і. z ^ ; ліквідуються, а значення N d зменшується на 1.

Слід зазначити, що допускається тільки попарне злиття кластерів. В результаті центр отриманого кластера розраховується, виходячи з позицій, займаних центрами об'єднуються кластерів і взятих з вагами, які визначаються кількістю вибіркових образів у відповідному кластері.

Досвід показує, що використання більш складних процедур злиття кластерів може призвести до незадовільних результатів. Описана процедура забезпечує вибір в якості центру об'єднаного кластера точки, що представляє справжнє середнє зливаються підмножин образів. Важливо також мати на увазі, що, оскільки до кожного центру кластера процедуру злиття можна застосувати тільки один раз, реалізація даного кроку ні за яких обставин не може привести до отримання кількості L об'єднаних кластерів.

Крок 14. Якщо поточний цикл ітерації - останній, то виконання алгоритму припиняється. В іншому випадку слід повернутися або до кроку 1, якщо за приписом користувача змінюється будь-якої з параметрів, що визначають процес кластеризації, або до кроку 2, якщо в черговому циклі ітерації параметри процесу повинні залишитися незмінними. Завершенням циклу ітерації вважається кожен перехід до кроку 1 або 2.

Застосування алгоритму ІСОМАД до набору даних помірної складності в принципі дозволяє отримати результати тільки після проведення великого чісла'експеріментов.

Виявлення структури даних може бути істотно прискорено завдяки ефективному використанню інформації, яка збирається після кожного циклу ітерації. Цю інформацію можна застосовувати для корекції параметрів процесу кластеризації безпосередньо при реалізації алгоритму, для чого потрібна доробка алгоритму ІСОМАД.

Вимога знаходження однозначною (чіткої) кластеризації елементів досліджуваної області характеристичних ознак захворювання є досить грубим і жорстким. Особливо погано це вимога працює при вирішенні таких слабо структуровані завдань, як диференціальна діагностика ранніх стадій захворювань. Методи нечіткої кластеризації, засновані на апараті нечітких множин, послаблюють цю вимогу в результаті введення нечітких кластерів і відповідних їм функцій приналежності.

 
Переглянути оригінал
< Попередня   ЗМІСТ   Наступна >
 
Дисципліни
Агропромисловість
Аудит та Бухоблік
Банківська справа
БЖД
Географія
Документознавство
Екологія
Економіка
Етика та Естетика
Журналістика
Інвестування
Інформатика
Історія
Культурологія
Література
Логіка
Логістика
Маркетинг
Медицина
Нерухомість
Менеджмент
Педагогіка
Політологія
Політекономія
Право
Природознавство
Психологія
Релігієзнавство
Риторика
Соціологія
Статистика
Техніка
Страхова справа
Товарознавство
Туризм
Філософія
Фінанси
Пошук