НАЙПРОСТІШІ СПОСОБИ ОЦІНЮВАННЯ В УМОВАХ АВТОКОРЕЛЯЦІЇ
Перш за все розглянемо деякі прості процедури, що дозволяють зменшити вплив автокореляції на властивості моделі оцінюваного часового ряду. Нехай, наприклад, модель тимчасового ряду має вигляд
Замість функції тренда в вираженні (7.16) може бути будь-яка інша невипадкова функція (сезонність, циклічність або їх комбінації). Розглянемо найпростіший випадок автокорреляции першого порядку. Нехай між помилками s (f) і e (t - 1), що виникають в послідовні моменти часу, є лінійна залежність, тоді взаємозв'язок відповідних залишків має вигляд
де а, b - невідомі параметри; і (!) - випадкова величина, щодо якої справедливі припущення теореми Гаусса - Маркова.
Застосувавши МНК до вираження (7.17), отримаємо
де
Оскільки залишки e (t) були отримані після застосування методу найменших квадратів, то
Підставивши ці вирази в формулу (7.17), отримаємо
В результаті модель (7.16) набирає вигляду
Введемо в розгляд нову змінну
Для x (t) справедлива наступна модель:
де
Оскільки випадкова помилка u (t) задовольняє всім припущенням методу найменших квадратів, то ідентифікація перетвореної моделі (7.19) буде коректною. Очевидно, що для використання даного підходу необхідно попередньо оцінити коефіцієнт автокореляції г (1).
Якщо r (1) = 1, то перетворення (7.18) являє собою результат операції взяття перших різниць:
Якщо ж r (l) = -1, то зручніше перейти до змінної х = х / 2, що призводить до моделей, побудованих за ковзним середнім:
Узагальнюючи вищевикладене, можна зробити висновок, що перехід від вихідних даних до перших різниць дозволяє зменшити вплив негативних наслідків сильної позитивної автокореляції першого порядку; перехід від вихідних даних до ковзним середнім призводить до зниження наслідків сильної негативної автокореляції першого порядку.