УЗАГАЛЬНЕНИЙ МЕТОД НАЙМЕНШИХ КВАДРАТІВ

Узагальнимо розглянуті способи усунення гетероскедастичності та автокореляції в лінійних моделях множинної регресії.

Знову звернімося до ковариационной матриці випадкових збурень.

У разі, коли друга і третя передумови в рівняннях спостережень порушені, її можна записати у вигляді

(7.40)

На головній діагоналі матриці (7.40) розташовані дисперсії випадкових збурень, які в загальному випадку можуть бути неоднорідними. На бічних місцях знаходяться значення ковариаций . Доведено теорему, яка формулює найкращу лінійну процедуру оцінки параметрів лінійної моделі множинної регресії в разі, якщо ковариационная матриця випадкових збурень має вигляд (7.40), тобто в умовах, коли друга і третя передумови теореми Гаусса - Маркова не виконуються.

Теорема Ейткена

У класі лінійних незміщених оцінок вектора параметрів лінійної моделі множинної регресії, ,. .наілучшей є оцінка:

(7.41)

Процедура (7.41) називається узагальненим методом найменших квадратів. Від класичного методу найменших квадратів він відрізняється тим, що оцінки параметрів знаходяться з умови мінімальності функціоналу:

Якщо матриця діагональна ( ), то процедура (7.41) відповідає виваженого методу найменших квадратів (ВМНК). Якщо в матриці на головній діагоналі лежать однакові значення, то процедура (7.41) забезпечує одержання найкращих оцінок в умовах автокореляції випадкових збурень при виконанні умови гомоскедастичність. Якщо матриця діагональна (все ) і все рівні, то процедура (7.41) перетворюється в процедуру класичного методу найменших квадратів (МНК).

У висновку помстимося, що застосування ОМНК вимагає знання ковариационной матриці вектора випадкових збурень , що зустрічається вкрай рідко. На практиці використовується, так званий, доступний узагальнений метод найменших квадратів. До нього відносять ті процедури, які ми розглянули вище - це ВМНК і процедури усунення автокореляції.

Зауваження. Завершуючи розгляд питання тестування побудованої моделі на виконання передумов теореми Гаусса - Маркова, необхідно кілька слів сказати про четверту передумові: незалежності вектора регресорів і з вектором випадкових збурень.

Якщо четверта передумова не виконується, то це призводить до зміщення МНК-оцінок параметрів моделі. Це було встановлено в параграфі 5.1 (формула (5.9)), когла ми розглядали механізм роботи методу найменших квадратів.

При побудові лінійних моделей, в яких значення регресорів в кожному спостереженні є константами, четверта передумова виконується автоматично, так як зв'язок між константою і випадковою величиною завжди відсутня. Передбачається, що зафіксувавши вибірку спостережень, зафіксували і значення регресорів в кожному спостереженні і, отже, виключили зв'язок між векторами регресорів і випадкових збурень. Тому немає необхідності в додатковому тестуванні останньої передумови теореми Гаусса - Маркова.

Зауважимо, що такий стан далеко не завжди має місце. Наприклад, якщо значення регресорів в кожному спостереженні суть результат вимірювань, то зв'язок між векторами регресорів і випадкових збурень може мати місце, так як вимірювання завжди виробляються з деякою помилкою, а це означає, що результати вимірювань є випадковими величинами. Отже, можлива і зв'язок регресорів з випадковими збуреннями. Інший приклад: в якості регресорів може виступати лаговой ендогенна змінна, значення якої сформувалося в попередній момент часу. Лагові ендогенна змінна є випадковою величиною, так як на її формування вплинуло відповідне випадкове обурення. Як бачимо, знову в складі регресорів виявилася випадкова змінна, яка може взаємодіяти з випадковим збуренням.

Розгляд перерахованих ситуацій виходить за рамки курсу, що вивчається. Забігаючи наперед, відзначимо, що виникнення таких ситуацій істотно ускладнює можливість отримання заможних оцінок параметрів лінійної моделі.

 
< Попер   ЗМІСТ   Наст >