Узагальнений метод найменших квадратів при побудові моделі регресії по часових рядах

Методи усунення автокореляції в залишках можуть бути різні. Вони залежать від причин автокорреляции. Автокорреляция в залишках може бути наслідком неправильної специфікації моделі: не враховано важлива пояснює змінна, неправильно обрана форма зв'язку. В цьому випадку можна спробувати змінити математичну функцію регресії (наприклад, лінійну на ступеневу), уточнити набір пояснюють змінних. Однак якщо ці спроби не увінчалися успіхом і автокорреляция в залишках має місце, то для її усунення можна застосувати узагальнений метод найменших квадратів (ОМНК).

ОМНК можна використовувати як для парної, так і для множинної регресії. Для простоти і з'ясування суті проблеми розглянемо регресію двох часових рядів

(6.17)

Для періоду часу справедливо рівність

(6.18)

Якщо має місце автокорреляция в залишках, тобто наступні за часом залишки залежать від попередніх, то регресія залишків може бути представлена ​​як

(6.19)

де - випадкова помилка для лінійної регресії залишків.

Але так як , де - теоретичні рівні лінійної регресії у від X, то і i. Вважаючи, що , маємо . Тоді регресія залишків набуде вигляду

(6.20)

Параметр d визначимо за формулою

(6.21)

де

В результаті отримаємо, що. Припускаючи, що

, Можна записати, що

(6.22)

тобто d - коефіцієнт автокореляції залишків першого порядку. Позначимо його через р. Тоді регресія залишків набуде вигляду

(6.23)

де - коефіцієнт автокореляції залишків першого порядку; - Випадкова помилка, яка задовольняє всім передумовам МНК.

Рівняння (6.23), як було показано раніше, використовується при тестуванні моделей на автокореляції залишків.

Припускаючи, що р відомий, віднімемо з рівняння (6.17) рівняння (6.18), помножене на р:

(6.24)

У підсумку маємо лінійне рівняння з новими змінними i. Позначимо нову залежну змінну через , а пояснює змінну

i через '. Приймемо також, що .Враховуючи,

що , отримаємо рівняння

(6.25)

де - незалежні випадкові величини, що мають нормальний розподіл.

Так як помилки задовольняють передумов МНК (вони не містять автокореляції), то оцінки і b будуть мати властивості незміщене оцінок і можуть бути отримані звичайним МНК.

Рівняння (6.25) можливо тільки при , так як при відсутній лаговой змінна. Щоб не зменшувати число ступенів свободи рекомендується для першого періоду часу використовувати поправку Прайса - Уінстена

(6.26)

Таким чином, ОМНК передбачає, що замість вихідних змінних і використовуються зважені змінні і , де - ваги. У матричному вигляді модель регресії набуває вигляду . У ній матриця ваг Р складе

Іншими словами, матриця вихідних даних трансформується

Для довгих динамічних рядів поправка Прайса - Уінстена може не застосовуватися. Тоді матриця ваг не з тримає перший рядок розглянутої матриці Р, і в розрахунках використовується перетворених спостережень і

До перетвореним змінним і застосовується традиційний МНК і оцінюються параметри а "і b . Далі з зі відносини -грожно знайти параметр а як

(6.27)

ОМНК поширюється і на випадок множинної регресії

Якщо має місце автокорреляция залишків і ,

то

1 (6.28)

де

Або, виходячи з колишньої символіки, будуємо модель виду

(6.29)

Застосовуючи до змінних традиційний МНК, знайдемо оцінки параметрів . Вільний член моделі визначимо як . Дарее можна написати шукану модель регресії , в якій усунена автокорреляция залишків.

Іншими словами, застосування ОМНК до регресії з авто-корельованими залишками зводиться до двокрокового процедурі:

  • - Перетворення вихідних рівнів динамічних рядів за допомогою відомого значення коефіцієнта автокореляції залишків першого порядку р;
  • - Застосування до перетвореним даними звичайного МНК.

приклад 6.4

За даними за 12 кварталів по підприємству розглядається залежність рівня рентабельності (у - в%) від оборотності активів (х- в разах).

Таблиця 6.3. Вихідні дані і результати аналізу

t

У,

x t

ξ,

ξ, -.

у ',

х ',

У

1

9

2

-2,109

-

7,725

1,717

13,5

2

11,5

2,6

-1,379

-2,109

6,883

1,574

14,8

3

14

3

-0,06

-1,379

8,101

1,666

15,7

4

16,8

3,5

1,265

-0,06

9,618

1,961

16,8

5

18

4

0,99

1,265

9,382

2,205

17,8

6

18,3

4,1

0,995

0,99

9,066

2,048

18,1

7

18,5

4,2

0,9

0,995

9,112

2,097

18,3

8

19

4,4

0,809

0,9

9,51

2,245

18,7

9

19,2

4,6

0,419

0,809

9,453

2,343

19,2

10

20,8

5

0,839

0,419

10,95

2,64

20

І

22

6

-0,912

0,839

11,33

3,435

22,2

12

24,4

7,1

-1,757

-0,912

13,114

4,022

24,6

Безпосереднє застосування регресійного аналізу до вихідних даних дало наступні результати:

Рівняння регресії статистично значимо, як і його параметри. Досліджуємо автокореляції залишків. Значення залишків наведено в табл. 6.3. Коефіцієнт автокореляції залишків знайдемо по формулі

Його величина не настільки мала, а за критерієм Дарбіна-Уотсона не може бути відкинута нульова гіпотеза про відсутність автокореляції в залишках (величина DW = 0,508 нижче нижньої межі 0,97 при рівні значущості 0,05). Для усунення автокореляції в залишках застосуємо ОМНК. Визначимо перетворені значення залежною і пояснює змінних, зваживши їх на коефіцієнт автокореляції залишків. Як терезів р будемо використовувати отримане значення . Для t = 1 перетворені значення складуть

Решта змінні зі значеннями перетворюються за формулами . Результати розрахунку нових змінних наведені в табл. 6.3.

До перетвореним змінним застосовуємо звичайний МНК. Рівняння регресії виявилося таким:

Хоча в моделі з перетвореними змінними коефіцієнт детермінації нижче, ніж у первісній моделі, але автокорреляция в залишках відсутня (коефіцієнт автокореляції залишків дорівнює 0,047). В даному рівнянні величина 4,4474 - параметр . Перейдемо від нього до параметру а:

В остаточному вигляді рівняння регресії складе

(Розраховані за нього теоретичні значення у представлені в останній графі табл. 6.3). В даному рівнянні коефіцієнт регресії вільний від автокоррелірованності помилок відповідно не є результатом хибної регресії і дозволяє робити більш коректні висновки щодо зв'язку результативної ознаки з пояснює змінної.

Розглянутий ОМНК базується на припущенні, що коефіцієнт автокореляції залишків р відомий. Однак на практиці точне значення р невідомо і використовуються його оцінки

В якості оцінки може використовуватися значення , отримане на основі критерію Дарбіна - Уотсона для моделі за вихідними даними. Як було показано раніше,

Відповідно маємо рівняння

(6.30)

У нашому прикладі до корекції висновків величина . Відповідно р складе 0,746.

Даний метод оцінювання дає непогані результати при досить великій кількості спостережень. Використовуючи і процедуру ОМНК до табл. 6.3, отримаємо рівняння з некоррелірованнимі залишками але коефіцієнт автокореляції залишків трохи вище (-0,212), хоча нульова гіпотеза про відсутність автокореляції залишків приймається. Практично ця модель за коефіцієнтом регресії відрізняється від попередньої і вихідної моделей.

Вважається, що більш точну оцінку коефіцієнтів регресії при ОМНК дає двокрокова процедура Дарвіна. Суть її полягає в наступному. Рівняння (6.24) можна записати у вигляді

(6.31)

де

Тоді маємо модель регресії, в якій р входить в число оцінюваних параметрів.

До рівняння (6.28) можна застосувати звичайний МНК, так як залишки не містять автокореляції. Перший крок процедури Дарбина полягає в застосуванні до моделі (6.31) традиційного МНК для визначення оцінки коефіцієнта автокореляції залишків р при змінної Далі на другому кроці оцінка р використовується для обчислення перетворених змінних і

До цих перетвореним змінним застосовується звичайний МНК, тобто будується рівняння (6.22), в якому коефіцієнт при служить оцінкою коефіцієнта регресії Ь, а величина I оцінює параметр а.

Для нашого прикладу двокрокова процедура Дарбіна призводить до наступних результатів: на першому кроці отримано рівняння регресії звичайним МНК

відповідно вважаємо, що коефіцієнт автокореляції залишків ; на другому кроці знаходимо перетворені змінні і з урахуванням поправки Прайса - Уінстена і звичайним МНК отримуємо регресію

Рівняння і його параметри статистично значущі. Автокорреляция залишків відсутня , що більше верхньої межі його критичного значення 1,33 при рівні значущості 0,05 і п = 12). Параметр а складе -10,3765, тобто в остаточному вигляді рівняння регресії має вигляд

Іншим методом, що дозволяє оцінити р, є ітеративна процедура Кохрейна - Оркатта. Стосовно до моделі парної регресії вона полягає в наступному.

На першому кроці оцінюються параметри регресії звичайним МНК, а також залишкові величини і по ним на основі моделі авторегресії залишків (6.20) оцінюють МНК параметр р. Якщо за критерієм Дарбіна - Уотсона гіпотеза про нульовий автокорреляции помилок відкидається, то переходять далі до другого кроку ітерації і будується модель по перетвореним змінним і , тобто розглядається модель

(6.32)

оцінка параметрів якої дається МНК (при цьому в розрахунках не використовуються дані при , тобто поправка Прайса - Уінстена). Залишки цієї регресії знову перевіряють на наявність автокореляції. Використовуючи модель (6.23), отримують нову оцінку коефіцієнта автокореляції залишків р. Процес триває до тих пір, поки різниця між наступної і попередньої оцінками р не буде менше заданого числа, що фіксує відсутність автокореляції помилок.

Далі вважаючи, що , отримаємо остаточний вигляд лінійного рівняння регресії.

Ітераційна процедура Кохрейна - Оркатта може бути поширена і на множинну регресію. Вона являє собою метод корекції статистичних висновків щодо коефіцієнтів регресії для моделі по динамічним рядам при наявності автокореляції помилок.

Застосуємо итерационную процедуру Кохрейна - Оркатта до нашого прикладу. Раніше вже було наведено рівняння регресії за вихідними даними і відповідно залишки по ньому (див. Табл. 6.3). Застосування до моделі (6.23) МНК приводить до формули розрахунку коефіцієнта автокореляції залишків

(6.33)

що не збігається з розрахунком коефіцієнта автокореляції залишків першого порядку по формулі, що використовується в критерії Дарбіна-Уотсона. Для нашого прикладу р, знайдене за формулою (6.33), так само 0,634, а виходячи з формули (6.22) дорівнює 0,513. Результати по довгих рядах динаміки, як правило, близькі, так як мало відрізняються від

Вважаючи , знайдемо значення перетворених змінних і , які будуть досить близькі до даних, отриманих по двокрокового процедурі Дарбина. Рівняння регресії для них складе . Для нього тобто отримана оцінка коефіцієнта регресії b , не схильна до автокорреляции помилок.

Таким чином, за даними табл. 6.3 отримані наступні оцінки коефіцієнта регресії b:

  • 2,951 - за вихідними даними без усунення автокореляції залишків;
  • 2,178 - по ОМНК;
  • 1,670 - по ОМНК з коефіцієнтом автокореляції залишків, виходячи з критерії Дарбіна - Уотсона;
  • 1,984 - по двокрокового процедурі Дарбина;
  • 1,909 - по ітераційної процедури Кохрейна - Оркатта.

Як бачимо, усунення автокореляції залишків по двокрокового процедурі Дарбина і по ітераційної процедури Кохрейна - Оркатта призводить до приблизно однаковим оцінками коефіцієнта регресії.

Практично процедура Кохрейна - Оркатта рівносильна застосування ОМНК. Що стосується оцінки автокорреляции залишків, то оскільки її справжнє значення досліднику невідомо, то можна використовувати більш просту процедуру оцінювання у вигляді двокрокового процедури Дарбина.

З огляду на те, що в розрахунках використовується не істинне значення , а його оцінка, описаний метод отримав назву доступного (або практично реалізованого ) ОМНК.

При прогнозуванні за моделлю, отриманою за допомогою ОМНК, рекомендується враховувати можливу автокореляції залишків, тобто прогноз здійснюється за моделлю

(6.34)

де - прогнозне значення у на період при довжині динамічного ряду п, тобто - Прогнозне значення - кінцеві рівні динамічних рядів.

Для нашого прикладу це означає, що прогноз будується за моделлю

Якщо ми припустимо, що , тобто має місце повна позитивна автокорреляция в залишках, то ОМНК буде зведений до методу послідовних різниць.

Звернемося до рівняння (6.24). При воно може бути записано у вигляді

(6.35)

де тобто ми маємо рівняння регресії за першими різницями

(6.36)

де

З рівняння (6.36) по МНК оцінюється коефіцієнт регресії Ь.

Таким чином, якщо р прагне до одиниці, а величина критерію Дарбіна - Уотсона прагне до нуля, то використання регресії за першими різницями усуває автокореляції в залишках.

Якщо припустити, що р = -1, тобто має місце повна негативна автокорреляция в залишках, то рівняння (6.21) набуде вигляду

(6.37)

або (6.38)

У рівнянні (6.38) - середні величини за два суміжних періоду. Використовуючи їх як нових перетворених змінних і , параметри а і b можна оцінити МНК. В цьому випадку ОМНК призводить до моделі регресії по ковзним середнім.

Однак припущення, що , являє собою досить рідкісне на практиці явище. Тому в більшості випадків ОМНК застосовують або використовуючи величину р, виходячи з критерію Дарбіна - Уотсона, або по двокрокового процедурі Дарбина, або за процедурою Кохрейна - Оркатта, або за процедурою Хілдрет - Лу [1] .

ОМНК дозволяє будувати модель регресії по вихідним рівнями часових рядів, не використовуючи методи виключення тенденції або включення в модель чинника часу.

  • [1] Плохотніков К. Е. Основи економетрики в пакеті STATISTICA. М .: Вузівський підручник, 2010. С. 118
 
< Попер   ЗМІСТ   Наст >