ОРТОГОНАЛЬНА РЕГРЕСІЯ

Нехай дослідник має в своєму розпорядженні набір випадкових точок (х, у.), I = 1, 2, ..., N. Відповідне цього набору кореляційне поле представлено на рис. 3.5. Нагадаємо, що якщо необхідно побудувати модель прямої регресії, то слід мінімізувати суму квадратів відхилень спостережуваних значень відгуку від відповідних прогнозних значень. Геометрично це означає мінімізацію довжин відрізків типу АА.

При побудові зворотного регресії, коли в якості відгуку вибирається змінна х, мінімізуються довжини відрізків АА х . Відмінності в одержуваних рівняннях регресії багато в чому визначаються різними одиницями і масштабами вимірів вхідний і вихідний змінних.

Головна відмінність моделі ортогональної регресії від розглянутих вище полягає в тому, що відстань від точок кореляційного поля до оцінюваної лінії ортогональної регресії вимірюється не вздовж виділеної координатної осі, відповідної ендогенної змінної моделі, а на основі поняття найкоротшого шляху. На рис. 3.5 таку відстань означає довжину відрізка АА '. При цьому, оскільки відстань між двома точками вимірюється за допомогою обраній дослідником функції метрики, економічну

Побудова ортогональної регресії

Мал. 3.5. Побудова ортогональної регресії

інтерпретацію одержуваного рівняння ортогональної регресії можна проводити тільки в тому випадку, коли і залежна, і незалежна змінні відповідної моделі вимірюються в одних і тих же одиницях. При побудові прямої або зворотної моделі регресії кожен раз відбувається облік стохастичности тільки однією з змінних (тієї, яка вважається ендогенної), тоді як вихідні дані для побудови регресій найчастіше представляють собою результати спостережень за парою випадкових величин (х, у). Ортогональна регресія дозволяє одночасно врахувати стохастический характер обох змінних х і у.

Розглянемо процес побудови рівняння ортогональної регресії. Нехай дані рівняння має вигляд

З курсу лінійної алгебри [43] відомо, що відстань від виділеної точки A (x jt г / ( ) до прямої (3.40) визначається виразом

Тоді для побудови ортогональної регресії необхідно вирішити оптимізаційних задач

Можна показати, що рішенням задачі (3.41) є корінь рівняння

Позначивши можна переписати

рівняння (3.42 ) у вигляді

Тоді рішення рівняння (3.42) можна записати як

Оцінка параметра 0 () визначається аналогічно парної

регресії за формулою в 0 = у ~ 9, .т. Таким чином, остаточно рівняння ортогональної регресії матиме вигляд

2 г

У ± = У + - -7 == Т ~

S U + ^ S 0 + / ir u,

Ортогональна регресія може бути використана для оцінки зміни кореляційного поля. Нехай х - Л ГГ , ст г ) і у - N (p, а) - нормальні випадкові величини. З теорії ймовірностей [44] відомо, що

Отже, в найпростішому випадку, коли змінні х і у є статистично незалежними, межа відповідного кореляційного поля може бути описана еліпсом розсіювання С (рис. 3.6). При цьому ймовірність попадання точки (Д3 0) , у ())) всередину еліпса дорівнює

На рис. 3.6 головні осі еліпса паралельні координатним осях, що є наслідком незалежності ознак X і у.

Оцінкою рівняння еліпса розсіювання, яка визначається за вибірковими даними, буде служити вираз Кореляційне поле і еліпс розсіювання для незалежних ознак при Х  = р  = О

Рис . 3.6. Кореляційне поле і еліпс розсіювання для незалежних ознак при Х у = р ; / = О

де% 2р (1 _ а, 2) - критичне значення, яке визначається за таблицями ^ -розподіленого.

Якщо між ознаками х та у існує лінійна статистична залежність з коефіцієнтом кореляції р, то кореляційне поле буде відрізнятися від зображеного на рис. 3.6 (див. Гл. 2, рис. 2.2-2.4). В цьому випадку вираз (3.43) набирає вигляду [15, 181

Тоді еліпс розсіювання може бути визначений таким чином:

Зауважимо, що вираз (3.44) визначає параметричне сімейство концентричних контурних еліпсів. Деякі елементи цього сімейства зображені на рис. 3.7.

Очевидно, що при статистичної незалежності ознак еліпс займає найбільший можливий обсяг, а це відповідає нульовому значенню коефіцієнта кореляції і максимальної невизначеності при прогнозуванні. При збільшенні коефіцієнта кореляції

еліпси розсіювання

Мал. 3.7. еліпси розсіювання

ступінь невизначеності знижується, і відповідний еліпс все більш витягується уздовж головної осі.

З курсу лінійної алгебри [43, 581 відомо, що за рівнянням еліпсоїда можна однозначно відновити рівняння його осей. При цьому головна вісь еліпса буде збігатися з лінією ортогональної регресії [15].

 
Переглянути оригінал
< Попер   ЗМІСТ   ОРИГІНАЛ   Наст >