Навігація
Головна
 
Головна arrow Економіка arrow Економетрика
< Попередня   ЗМІСТ   Наступна >

Узагальнений метод найменших квадратів при побудові моделі регресії по часових рядах

Методи усунення автокореляції в залишках можуть бути різні. Вони залежать від причин автокорреляции. Автокорреляция в залишках може бути наслідком неправильної специфікації моделі: не враховано важлива пояснює змінна, неправильно обрана форма зв'язку. В цьому випадку можна спробувати змінити математичну функцію регресії (наприклад, лінійну на ступеневу), уточнити набір пояснюють змінних. Однак якщо ці спроби не увінчалися успіхом і автокорреляция в залишках має місце, то для її усунення можна застосувати узагальнений метод найменших квадратів (ОМНК).

ОМНК можна використовувати як для парної, так і для множинної регресії. Для простоти і з'ясування суті проблеми розглянемо регресію двох часових рядів

(6.17)

Для періоду часу справедливо рівність

(6.18)

Якщо має місце автокорреляция в залишках, тобто наступні за часом залишки залежать від попередніх, то регресія залишків може бути представлена ​​як

(6.19)

де - випадкова помилка для лінійної регресії залишків.

Але так як , де - теоретичні рівні лінійної регресії у від X, то і i. Вважаючи, що , маємо . Тоді регресія залишків набуде вигляду

(6.20)

Параметр d визначимо за формулою

(6.21)

де

В результаті отримаємо, що. Припускаючи, що

, Можна записати, що

(6.22)

тобто d - коефіцієнт автокореляції залишків першого порядку. Позначимо його через р. Тоді регресія залишків набуде вигляду

(6.23)

де - коефіцієнт автокореляції залишків першого порядку; - Випадкова помилка, яка задовольняє всім передумовам МНК.

Рівняння (6.23), як було показано раніше, використовується при тестуванні моделей на автокореляції залишків.

Припускаючи, що р відомий, віднімемо з рівняння (6.17) рівняння (6.18), помножене на р:

(6.24)

У підсумку маємо лінійне рівняння з новими змінними i. Позначимо нову залежну змінну через , а пояснює змінну

i через '. Приймемо також, що .Враховуючи,

що , отримаємо рівняння

(6.25)

де - незалежні випадкові величини, що мають нормальний розподіл.

Так як помилки задовольняють передумов МНК (вони не містять автокореляції), то оцінки і b будуть мати властивості незміщене оцінок і можуть бути отримані звичайним МНК.

Рівняння (6.25) можливо тільки при , так як при відсутній лаговой змінна. Щоб не зменшувати число ступенів свободи рекомендується для першого періоду часу використовувати поправку Прайса - Уінстена

(6.26)

Таким чином, ОМНК передбачає, що замість вихідних змінних і використовуються зважені змінні і , де - ваги. У матричному вигляді модель регресії набуває вигляду . У ній матриця ваг Р складе

Іншими словами, матриця вихідних даних трансформується

Для довгих динамічних рядів поправка Прайса - Уінстена може не застосовуватися. Тоді матриця ваг не з тримає перший рядок розглянутої матриці Р, і в розрахунках використовується перетворених спостережень і

До перетвореним змінним і застосовується традиційний МНК і оцінюються параметри а "і b . Далі з зі відносини -грожно знайти параметр а як

(6.27)

ОМНК поширюється і на випадок множинної регресії

Якщо має місце автокорреляция залишків і ,

то

1 (6.28)

де

Або, виходячи з колишньої символіки, будуємо модель виду

(6.29)

Застосовуючи до змінних традиційний МНК, знайдемо оцінки параметрів . Вільний член моделі визначимо як . Дарее можна написати шукану модель регресії , в якій усунена автокорреляция залишків.

Іншими словами, застосування ОМНК до регресії з авто-корельованими залишками зводиться до двокрокового процедурі:

  • - Перетворення вихідних рівнів динамічних рядів за допомогою відомого значення коефіцієнта автокореляції залишків першого порядку р;
  • - Застосування до перетвореним даними звичайного МНК.

приклад 6.4

За даними за 12 кварталів по підприємству розглядається залежність рівня рентабельності (у - в%) від оборотності активів (х- в разах).

Таблиця 6.3. Вихідні дані і результати аналізу

t

У,

x t

ξ,

ξ, -.

у ',

х ',

У

1

9

2

-2,109

-

7,725

1,717

13,5

2

11,5

2,6

-1,379

-2,109

6,883

1,574

14,8

3

14

3

-0,06

-1,379

8,101

1,666

15,7

4

16,8

3,5

1,265

-0,06

9,618

1,961

16,8

5

18

4

0,99

1,265

9,382

2,205

17,8

6

18,3

4,1

0,995

0,99

9,066

2,048

18,1

7

18,5

4,2

0,9

0,995

9,112

2,097

18,3

8

19

4,4

0,809

0,9

9,51

2,245

18,7

9

19,2

4,6

0,419

0,809

9,453

2,343

19,2

10

20,8

5

0,839

0,419

10,95

2,64

20

І

22

6

-0,912

0,839

11,33

3,435

22,2

12

24,4

7,1

-1,757

-0,912

13,114

4,022

24,6

Безпосереднє застосування регресійного аналізу до вихідних даних дало наступні результати:

Рівняння регресії статистично значимо, як і його параметри. Досліджуємо автокореляції залишків. Значення залишків наведено в табл. 6.3. Коефіцієнт автокореляції залишків знайдемо по формулі

Його величина не настільки мала, а за критерієм Дарбіна-Уотсона не може бути відкинута нульова гіпотеза про відсутність автокореляції в залишках (величина DW = 0,508 нижче нижньої межі 0,97 при рівні значущості 0,05). Для усунення автокореляції в залишках застосуємо ОМНК. Визначимо перетворені значення залежною і пояснює змінних, зваживши їх на коефіцієнт автокореляції залишків. Як терезів р будемо використовувати отримане значення . Для t = 1 перетворені значення складуть

Решта змінні зі значеннями перетворюються за формулами . Результати розрахунку нових змінних наведені в табл. 6.3.

До перетвореним змінним застосовуємо звичайний МНК. Рівняння регресії виявилося таким:

Хоча в моделі з перетвореними змінними коефіцієнт детермінації нижче, ніж у первісній моделі, але автокорреляция в залишках відсутня (коефіцієнт автокореляції залишків дорівнює 0,047). В даному рівнянні величина 4,4474 - параметр . Перейдемо від нього до параметру а:

В остаточному вигляді рівняння регресії складе

(Розраховані за нього теоретичні значення у представлені в останній графі табл. 6.3). В даному рівнянні коефіцієнт регресії вільний від автокоррелірованності помилок відповідно не є результатом хибної регресії і дозволяє робити більш коректні висновки щодо зв'язку результативної ознаки з пояснює змінної.

Розглянутий ОМНК базується на припущенні, що коефіцієнт автокореляції залишків р відомий. Однак на практиці точне значення р невідомо і використовуються його оцінки

В якості оцінки може використовуватися значення , отримане на основі критерію Дарбіна - Уотсона для моделі за вихідними даними. Як було показано раніше,

Відповідно маємо рівняння

(6.30)

У нашому прикладі до корекції висновків величина . Відповідно р складе 0,746.

Даний метод оцінювання дає непогані результати при досить великій кількості спостережень. Використовуючи і процедуру ОМНК до табл. 6.3, отримаємо рівняння з некоррелірованнимі залишками але коефіцієнт автокореляції залишків трохи вище (-0,212), хоча нульова гіпотеза про відсутність автокореляції залишків приймається. Практично ця модель за коефіцієнтом регресії відрізняється від попередньої і вихідної моделей.

Вважається, що більш точну оцінку коефіцієнтів регресії при ОМНК дає двокрокова процедура Дарвіна. Суть її полягає в наступному. Рівняння (6.24) можна записати у вигляді

(6.31)

де

Тоді маємо модель регресії, в якій р входить в число оцінюваних параметрів.

До рівняння (6.28) можна застосувати звичайний МНК, так як залишки не містять автокореляції. Перший крок процедури Дарбина полягає в застосуванні до моделі (6.31) традиційного МНК для визначення оцінки коефіцієнта автокореляції залишків р при змінної Далі на другому кроці оцінка р використовується для обчислення перетворених змінних і

До цих перетвореним змінним застосовується звичайний МНК, тобто будується рівняння (6.22), в якому коефіцієнт при служить оцінкою коефіцієнта регресії Ь, а величина I оцінює параметр а.

Для нашого прикладу двокрокова процедура Дарбіна призводить до наступних результатів: на першому кроці отримано рівняння регресії звичайним МНК

відповідно вважаємо, що коефіцієнт автокореляції залишків ; на другому кроці знаходимо перетворені змінні і з урахуванням поправки Прайса - Уінстена і звичайним МНК отримуємо регресію

Рівняння і його параметри статистично значущі. Автокорреляция залишків відсутня , що більше верхньої межі його критичного значення 1,33 при рівні значущості 0,05 і п = 12). Параметр а складе -10,3765, тобто в остаточному вигляді рівняння регресії має вигляд

Іншим методом, що дозволяє оцінити р, є ітеративна процедура Кохрейна - Оркатта. Стосовно до моделі парної регресії вона полягає в наступному.

На першому кроці оцінюються параметри регресії звичайним МНК, а також залишкові величини і по ним на основі моделі авторегресії залишків (6.20) оцінюють МНК параметр р. Якщо за критерієм Дарбіна - Уотсона гіпотеза про нульовий автокорреляции помилок відкидається, то переходять далі до другого кроку ітерації і будується модель по перетвореним змінним і , тобто розглядається модель

(6.32)

оцінка параметрів якої дається МНК (при цьому в розрахунках не використовуються дані при , тобто поправка Прайса - Уінстена). Залишки цієї регресії знову перевіряють на наявність автокореляції. Використовуючи модель (6.23), отримують нову оцінку коефіцієнта автокореляції залишків р. Процес триває до тих пір, поки різниця між наступної і попередньої оцінками р не буде менше заданого числа, що фіксує відсутність автокореляції помилок.

Далі вважаючи, що , отримаємо остаточний вигляд лінійного рівняння регресії.

Ітераційна процедура Кохрейна - Оркатта може бути поширена і на множинну регресію. Вона являє собою метод корекції статистичних висновків щодо коефіцієнтів регресії для моделі по динамічним рядам при наявності автокореляції помилок.

Застосуємо итерационную процедуру Кохрейна - Оркатта до нашого прикладу. Раніше вже було наведено рівняння регресії за вихідними даними і відповідно залишки по ньому (див. Табл. 6.3). Застосування до моделі (6.23) МНК приводить до формули розрахунку коефіцієнта автокореляції залишків

(6.33)

що не збігається з розрахунком коефіцієнта автокореляції залишків першого порядку по формулі, що використовується в критерії Дарбіна-Уотсона. Для нашого прикладу р, знайдене за формулою (6.33), так само 0,634, а виходячи з формули (6.22) дорівнює 0,513. Результати по довгих рядах динаміки, як правило, близькі, так як мало відрізняються від

Вважаючи , знайдемо значення перетворених змінних і , які будуть досить близькі до даних, отриманих по двокрокового процедурі Дарбина. Рівняння регресії для них складе . Для нього тобто отримана оцінка коефіцієнта регресії b , не схильна до автокорреляции помилок.

Таким чином, за даними табл. 6.3 отримані наступні оцінки коефіцієнта регресії b:

  • 2,951 - за вихідними даними без усунення автокореляції залишків;
  • 2,178 - по ОМНК;
  • 1,670 - по ОМНК з коефіцієнтом автокореляції залишків, виходячи з критерії Дарбіна - Уотсона;
  • 1,984 - по двокрокового процедурі Дарбина;
  • 1,909 - по ітераційної процедури Кохрейна - Оркатта.

Як бачимо, усунення автокореляції залишків по двокрокового процедурі Дарбина і по ітераційної процедури Кохрейна - Оркатта призводить до приблизно однаковим оцінками коефіцієнта регресії.

Практично процедура Кохрейна - Оркатта рівносильна застосування ОМНК. Що стосується оцінки автокорреляции залишків, то оскільки її справжнє значення досліднику невідомо, то можна використовувати більш просту процедуру оцінювання у вигляді двокрокового процедури Дарбина.

З огляду на те, що в розрахунках використовується не істинне значення , а його оцінка, описаний метод отримав назву доступного (або практично реалізованого ) ОМНК.

При прогнозуванні за моделлю, отриманою за допомогою ОМНК, рекомендується враховувати можливу автокореляції залишків, тобто прогноз здійснюється за моделлю

(6.34)

де - прогнозне значення у на період при довжині динамічного ряду п, тобто - Прогнозне значення - кінцеві рівні динамічних рядів.

Для нашого прикладу це означає, що прогноз будується за моделлю

Якщо ми припустимо, що , тобто має місце повна позитивна автокорреляция в залишках, то ОМНК буде зведений до методу послідовних різниць.

Звернемося до рівняння (6.24). При воно може бути записано у вигляді

(6.35)

де тобто ми маємо рівняння регресії за першими різницями

(6.36)

де

З рівняння (6.36) по МНК оцінюється коефіцієнт регресії Ь.

Таким чином, якщо р прагне до одиниці, а величина критерію Дарбіна - Уотсона прагне до нуля, то використання регресії за першими різницями усуває автокореляції в залишках.

Якщо припустити, що р = -1, тобто має місце повна негативна автокорреляция в залишках, то рівняння (6.21) набуде вигляду

(6.37)

або (6.38)

У рівнянні (6.38) - середні величини за два суміжних періоду. Використовуючи їх як нових перетворених змінних і , параметри а і b можна оцінити МНК. В цьому випадку ОМНК призводить до моделі регресії по ковзним середнім.

Однак припущення, що , являє собою досить рідкісне на практиці явище. Тому в більшості випадків ОМНК застосовують або використовуючи величину р, виходячи з критерію Дарбіна - Уотсона, або по двокрокового процедурі Дарбина, або за процедурою Кохрейна - Оркатта, або за процедурою Хілдрет - Лу [1] .

ОМНК дозволяє будувати модель регресії по вихідним рівнями часових рядів, не використовуючи методи виключення тенденції або включення в модель чинника часу.

  • [1] Плохотніков К. Е. Основи економетрики в пакеті STATISTICA. М .: Вузівський підручник, 2010. С. 118
 
Якщо Ви помітили помилку в тексті позначте слово та натисніть Shift + Enter
< Попередня   ЗМІСТ   Наступна >
 
Дисципліни
Агропромисловість
Аудит та Бухоблік
Банківська справа
БЖД
Географія
Документознавство
Екологія
Економіка
Етика та Естетика
Журналістика
Інвестування
Інформатика
Історія
Культурологія
Література
Логіка
Логістика
Маркетинг
Медицина
Нерухомість
Менеджмент
Педагогіка
Політологія
Політекономія
Право
Природознавство
Психологія
Релігієзнавство
Риторика
Соціологія
Статистика
Техніка
Страхова справа
Товарознавство
Туризм
Філософія
Фінанси
Пошук