МУЛЬТИКОЛІНЕАРНОСТІ

Як зазначалося раніше, для використання методу найменших квадратів необхідно виконання припущення про лінійну незалежності стовпців матриці X. Воно еквівалентно умові, відповідно до якого ранг матриці X (або матриці Х Т Х) дорівнює числу невідомих параметрів рівняння множинної регресії

Порушення цієї умови свідчить про те, що між розглянутими пояснюють змінними існує лінійна функціональна зв'язок і матриця Х Т Х виявляється вироджених, а це призводить до неможливості обчислення зворотної матриці т Х) ~ х . В результаті оцінювання параметрів по МНК з використанням формули (4.6) неможливо.

Ситуація, коли дві або більше пояснюючі змінні лінійно залежні, називається повною (досконалої) колінеарні , або повної мультиколінеарності | 2, 17, 19, 28]. Розглянемо, наприклад, залежність обсягу виробництва у від постійних х у змінних х 2 і загальних х 3 витрат:

Очевидно, що пояснюючі змінні пов'язані між собою співвідношенням х 3 = х { + х 2 , і ранг матриці X, побудованої для цієї моделі, буде дорівнює трьом, що унеможливлює оцінку чотирьох невідомих параметрів. Іншими словами, дана модель неідентифіковані. Однак це не означає, що залежність (4.50) не піддається аналізу. Якщо врахувати взаємозалежність пояснюють змінних, то рівняння (4.50) може бути перетворено наступним чином:

де

Ранг матриці X, побудованої для моделі (4.51), теж буде дорівнює трьом, що вже збігається з числом невідомих параметрів цієї моделі. Таким чином, параметри 0 () , 0 ,, 0 2 можна оцінити за методом найменших квадратів. У загальному випадку можна показати, що якщо rgX = г <т, то шляхом перетворення вихідної моделі можна однозначно оцінити тільки г лінійних комбінацій вихідних невідомих параметрів [2, 19, 68].

На практиці повна мультиколінеарності зустрічається досить рідко, так як її нескладно уникнути на перших етапах економетричного аналізу при виборі пояснюють змінних. Набагато частіше виникають ситуації, коли між пояснюють змінними немає функціональної лінійної залежності, але спостерігається тісний кореляційний зв'язок. Таке явище називають реальною мультіколлінеарності , часткової мультіколлііеарно- стю або просто мультіколлінеарності [2, 17, 19, 28].

Мультиколінеарності не створює формальних перешкод для використання методу найменших квадратів, оскільки матриця X має повний столбцовую ранг. В цьому випадку МНК-оцінки формально існують, але стають нестабільними - як з точки зору статистичної значущості, так і за величиною і знаку. Точних кількісних критеріїв для виявлення мультиколінеарності не існує. Однак відомі деякі характерні ознаки мультиколінеарності:

  • • невелика зміна вихідних даних (додавання або вилучення малої кількості спостережень, незначна зміна значень) призводить до істотної зміни оцінок невідомих параметрів аж до зміни їх знаків;
  • • деякі оцінки параметрів мають неправильні з точки зору економічної теорії знаки або невиправдано великі за абсолютною величиною значення;
  • • більшість або навіть всі оцінки коефіцієнтів регресії мають великі стандартні помилки і малу значимість, в той час як значення багатьох з них відмінні від нуля, при цьому всі рівняння в цілому - сильно значуще (велике значення коефіцієнта детермінації і відповідної йому / ^ - статистики) .

Поява одного або декількох з перерахованих ознак повинно послужити сигналом для детального аналізу всіх вхідних факторів моделі. При цьому хорошим інструментом може стати матриця парних коефіцієнтів кореляцій між вхідними факторами R , часто звана матрицею межфакторних кореляцій. Якщо все вхідні фактори не корелюють один з одним (мультиколінеарності повністю відсутня), то матриця R буде одиничною і її визначник буде дорівнювати одиниці.

Наприклад, для рівняння

при відсутності мультиколінеарності вірно

Якщо ж між усіма вхідними факторами спостерігається функціональна лінійна залежність, то

Таким чином, за величиною визначника матриці межфакторних кореляцій можна судити про ступінь мультіколлінеарності. Чим ближче R до одиниці, тим слабкіше мультиколінеарності. Ступінь близькості R до одиниці можна перевірити за допомогою критерію yj. Було висунуто гіпотеза про відсутність мультиколінеарності

Для перевірки цієї гіпотези використовується статистика Бартлетта [13]

яка має розподіл, близьке до

ступенями свободи. Якщо то з ймовірністю (1 - а) гіпотеза Я 0 відкидається, що свідчить про наявність мультиколінеарності. В іншому випадку гіпотеза не відкидається і обґрунтованих висновків про відсутність мультиколінеарності робити не можна.

Ще один спосіб перевірки гіпотези # 0 полягає у використанні статистики Лоулі [13]

яка також має розподіл, близьке до х 2 з ступенями свободи.

Як було зазначено раніше, сильна мультиколінеарності може привести до цілого ряду негативних ефектів, тому в економетричної літературі проблемі усунення мультиколінеарності приділяється велика увага [2, 19]. Найпростіший спосіб усунення мультиколінеарності полягає у виключенні з моделі множинної регресії одного або декількох регресорів. Вибір «кандидата» на усунення можна проводити різними способами.

Один з підходів полягає в використанні множинних коефіцієнтів кореляції. Для цього всі фактори (по черзі) використовують в якості відгуку і обчислюють коефіцієнти множинної кореляції

З моделі слід виключити фактор X., якому відповідає найбільше абсолютне значення коефіцієнта множинної кореляції

Другий підхід заснований на аналізі матриці парних коефіцієнтів кореляції між усіма регресорів і відгуком. Прийнято вважати, що два фактори знаходяться в тісному лінійної залежності (фактори колінеарні), якщо парний коефіцієнт кореляції між ними статистично значимий і більше 0,7 за абсолютним значенням [2]. Так як Колінеарні фактори дублюють один одного, один з них бажано виключити з моделі. При цьому необхідно прагнути до того, щоб фактор, що залишається в моделі, при досить тісному зв'язку з відгуком був найменш тісно пов'язаний з іншими факторами.

Нехай, наприклад, для моделі (4.52) була отримана наступна матриця парних коефіцієнтів кореляції:

Серед вхідних факторів найбільш тісно пов'язані між собою змінні Х 2 і Х у отже, одну з них необхідно виключити. Тіснота зв'язку з відгуком і у Х 2 , і у Х 3 досить велика. Однак при виключенні Х 0 фактори, що залишилися в моделі, будуть мати коефіцієнт кореляції між собою, рівний 0,21, а при виключенні Х 3 - 0,68. Тому в даному випадку доцільніше виключити з моделі фактор Х 2 , так як це дозволяє більшою мірою послабити ефект мультиколінеарності, ніж виняток фактора Х у

Існують і інші способи боротьби з мультіколлінеарності [2, 17, 19]:

  • • перетворення факторів, включених в модель, при якому знижується ефект мультиколінеарності (наприклад, перехід від вихідних даних до перших різниць і т.п.);
  • • перетворення рівняння регресії шляхом включення в нього нових регресорів або заміни колінеарних факторів на деякі функції від них;
  • • перехід до інших методів оцінювання, що володіє більшою в порівнянні з МНК точністю при наявності мультиколінеарності у вихідних даних (наприклад, так звана «рідж-регресія»).
 
Переглянути оригінал
< Попер   ЗМІСТ   ОРИГІНАЛ   Наст >