Навігація
Главная
Авторизация/Регистрация
 
Головна arrow Природознавство arrow ЕКОНОМЕТРИКА
Переглянути оригінал

ОСОБЛИВОСТІ ПРОВЕДЕННЯ РЕГРЕСІЙНОГО АНАЛІЗУ ПРИ ПОРУШЕННІ КЛАСИЧНИХ ПРИПУЩЕНЬ

Після вивчення даного розділу студент повинен:

  • • знати
  • - основні проблеми, що виникають при порушенні класичних припущень МНК; методи стійкого оцінювання регресійних моделей;
  • • вміти
  • - виявляти порушення класичних припущень МНК;
  • володіти
  • - методами виявлення наявності і визначення форми гетероскедастіч- ності; методами перевірки умови нормальності.

Розглянуті в попередніх розділах методи регресійного аналізу дозволяють отримувати статистично коректні результати лише при виконанні ряду певних умов, що містяться, зокрема, в теоремі Гаусса - Маркова. До них належать обмеження на властивості вихідних даних (детермінованість матриці значень екзогенних змінних), обмеження на властивості випадкових помилок моделі (некоррелірованні, гомоскедастичність), а також умови несуперечності вихідних даних заздалегідь обраної специфікації регресійній моделі. На практиці забезпечити суворе виконання перерахованих умов найчастіше виявляється неможливо. Наприклад, значення незалежних змінних, будучи результатами спостережень, можуть, так само як і відгуки моделей, містити випадкові помилки різного роду, що позбавляє вихідні дані властивості детермінованості. При дослідженні показників, що змінюються в часі, порушується припущення некоррелированности. При неоднорідності умов проведення спостережень, пов'язаної, наприклад, з впливом неврахованих в моделі факторів або з використанням інших вимірників (приладів), що мають відмінні налаштування або забезпечують іншу точність вимірювань, може проявлятися гетероскедастичності. Крім того, в вибірці можуть бути присутніми грубі засмічують спостереження, так звані викиди, обробка яких є окремою статистичну задачу (див. Параграф 8.3).

При аналізі властивостей оцінених рівнянь регресій використовуються спеціальні статистичні критерії, які дають коректні результати лише при несуперечності умови нормальності розподілу випадкових помилок. Стало бути, дослідник повинен як вміти виявляти ситуації виконання умови нормальності, так і приймати відповідні рішення при його порушенні.

Розглянемо лінійно-параметризрвані регресійні рівняння

де. - матриця значень регресійних функцій, що має повний столбцовую ранг, тобто rg (X) = т 0 = (0 ,, ..., 0 ш ) г - вектор невідомих параметрів, які підлягають оцінюванню; т - кількість неізвест- них параметрів; N - кількість спостережень; f (x) = [/, (х), ..., - вектор відомих регресійних

функцій (регресорів); х .. - задані значення вхідних факторів; Y = (y v ..., y N ) r - вектор значень відгуку; Е = (е ,, ..., e N ) T - вектор помилок спостережень.

Як зазначалося раніше (гл. 4), коректне оцінювання вектора невідомих параметрів рівняння (8.1) методом найменших квадратів можливо, якщо щодо випадкових помилок справедливі такі припущення [11, 33J:

Крім того, під час перевірки гіпотез для випадкових помилок слід дотримуватися умови нормальності розподілу, тобто е ; . - N ( 0, а 2 ).

 
Переглянути оригінал
< Попередня   ЗМІСТ   Наступна >
 
Дисципліни
Агропромисловість
Аудит та Бухоблік
Банківська справа
БЖД
Географія
Документознавство
Екологія
Економіка
Етика та Естетика
Журналістика
Інвестування
Інформатика
Історія
Культурологія
Література
Логіка
Логістика
Маркетинг
Медицина
Нерухомість
Менеджмент
Педагогіка
Політологія
Політекономія
Право
Природознавство
Психологія
Релігієзнавство
Риторика
Соціологія
Статистика
Техніка
Страхова справа
Товарознавство
Туризм
Філософія
Фінанси
Пошук