НАЙПРОСТІШІ СПОСОБИ ОЦІНЮВАННЯ В УМОВАХ АВТОКОРЕЛЯЦІЇ

Перш за все розглянемо деякі прості процедури, що дозволяють зменшити вплив автокореляції на властивості моделі оцінюваного часового ряду. Нехай, наприклад, модель тимчасового ряду має вигляд

Замість функції тренда в вираженні (7.16) може бути будь-яка інша невипадкова функція (сезонність, циклічність або їх комбінації). Розглянемо найпростіший випадок автокорреляции першого порядку. Нехай між помилками s (f) і e (t - 1), що виникають в послідовні моменти часу, є лінійна залежність, тоді взаємозв'язок відповідних залишків має вигляд

де а, b - невідомі параметри; і (!) - випадкова величина, щодо якої справедливі припущення теореми Гаусса - Маркова.

Застосувавши МНК до вираження (7.17), отримаємо

де

Оскільки залишки e (t) були отримані після застосування методу найменших квадратів, то

Підставивши ці вирази в формулу (7.17), отримаємо

В результаті модель (7.16) набирає вигляду

Введемо в розгляд нову змінну

Для x (t) справедлива наступна модель:

де

Оскільки випадкова помилка u (t) задовольняє всім припущенням методу найменших квадратів, то ідентифікація перетвореної моделі (7.19) буде коректною. Очевидно, що для використання даного підходу необхідно попередньо оцінити коефіцієнт автокореляції г (1).

Якщо r (1) = 1, то перетворення (7.18) являє собою результат операції взяття перших різниць:

Якщо ж r (l) = -1, то зручніше перейти до змінної х = х / 2, що призводить до моделей, побудованих за ковзним середнім:

Узагальнюючи вищевикладене, можна зробити висновок, що перехід від вихідних даних до перших різниць дозволяє зменшити вплив негативних наслідків сильної позитивної автокореляції першого порядку; перехід від вихідних даних до ковзним середнім призводить до зниження наслідків сильної негативної автокореляції першого порядку.

 
Переглянути оригінал
< Попер   ЗМІСТ   ОРИГІНАЛ   Наст >