Навігація
Головна
 
Головна arrow Економіка arrow Економетрика
< Попередня   ЗМІСТ   Наступна >

МЕТОД НАЙМЕНШИХ КВАДРАТІВ, ТЕОРЕМА ГАУССА - МАРКОВА

Після вивчення глави 5 студент повинен:

знати

• принцип методу найменших квадратів (МНК);

• формулювання теореми Гаусса - Маркова;

• умови, при виконанні яких МНК дозволяє отримати найкращі оцінки лінійної моделі множинної регресії;

• основні властивості моделі у вигляді рівняння парної регресії характеристики;

• поняття схеми Гаусса - Маркова та системи нормальних рівнянь;

• призначення передумов в теоремі Гаусса - Маркова;

• наслідки невиконання передумов теореми Гаусса - Маркова;

вміти

• будувати схему Гаусса - Маркова для розрахунку параметрів лінійної моделі;

• застосовувати МНК для формування системи нормальних рівнянь за даними схеми Гаусса - Маркова;

• використовувати табличний процесор EXCEL для обчислення параметрів лінійної моделі;

володіти

• математичним апаратом лінійної алгебри в рамках, необхідних для вирішення задачі оцінки параметрів лінійної моделі;

• навичками використання програмного забезпечення персональних комп'ютерів, в частині, використання табличного процесора EXCEL.

Метод найменших квадратів і рівняння парної регресії

Одним з найбільш широко застосовуваних методів, отримання, принаймні, заможних оцінок, є метод найменших квадратів (МНК).

Метод найменших квадратів був запропонований Гауссом ще в XVIII в. Гаусс вирішував завдання про те, як на площині (в просторі) через відомий набір точок провести пряму найкращим способом. Як критерій він запропонував використовувати суму квадратів залишків (нев'язок), тобто різниць між абсциссами реальних точок і відповідних їм точок, що лежать на прямій. В математиці вирішення такого завдання отримало назву регресійного аналізу.

Розглянемо механізм застосування МНК на прикладі ідентифікації (оцінки, побудови) моделі у вигляді лінійного рівняння парної регресії:

(5.1)

Для вирішення завдання маємо набір точок на площині або іншими словами набір п спостережень за поведінкою змінних у і х.

Таблиця вихідних даних (вибірка).

Відповідно до методу найменших квадратів, необхідно знайти такі значення оцінок параметрів моделі (5.1), які відповідають мінімуму суми квадратів залишків.

З (5.1) випливає, що невідомі параметри моделі повинні забезпечити мінімум функції:

(5.2)

Необхідною умовою екстремуму функції в точці є рівність нулю в ній її приватних похідних. Отже, для знаходження параметрів функції (5.2), відповідні її мінімуму, необхідно обчислити похідні цієї функції за параметрами, прирівняти їх нулю і вирішити отримані рівняння щодо і

(5.3)

Розділивши обидві частини рівнянь (5.3) на -2 і виконавши множення, одержимо:

(5.4)

або остаточно:

(5.5)

Система рівнянь (5.5) називається системою нормальних рівнянь для визначення оцінок параметрів моделі парної регресії (5.1).

Переконаємося, що рішення системи рівнянь (5.5) відповідають мінімуму функції (5.2). Для цього достатньо показати, що другі похідні функції (5.2) є позитивними.

Систему рівнянь (5.5) можна вирішити методом виключення змінних. Для цього достатньо висловити параметр через та підставити його в друге рівняння системи, звідки легко отримати , потім отримане значення підставити в перше рівняння і отримати вираз для . В результаті рішення системи рівнянь (5.5) набуде вигляду:

(5.6)

Вирази (5.6) дозволяють за відомими значеннями спостережень за змінними х і у обчислити оцінки параметрів моделі парної регресії.

Перевіримо, наскільки отримані оцінки відповідають вимозі незсуненості. Для цього запишемо другий вираз (2.12) у вигляді

(5.7)

Для отримання виразу (5.7) необхідно згадати, що оцінка ковариации і дисперсії випадкових змінних обчислюються, як

Розкривши дужки і провівши нескладні перетворення, легко отримати вираз (5.7).

Знайдемо чисельник (5.7), використовуючи властивості ковариацию:

(5.8)

Перший доданок у виразі (5.8) дорівнює нулю, так як параметр константа, а . Тоді остаточно вираз (5.8) приймає вид:

(5.9)

Математичне сподівання оцінки параметра одно правій частині виразу (5.9), так як параметр і кількісні характеристики випадкових змінних - константи.

Звідси видно, незважаючи на те, що випадкові обурення прямо не беруть участь в обчисленні значень оцінок параметрів, вони істотно впливають на їх якість, а саме, якщо випадкове обурення корелює з регресорів, то значення оцінки стає зміщеним.

На практиці часто користуються формулами для обчислення параметрів рівняння парної регресії з використанням середніх значень. Вводяться такі позначення:

Тоді система нормальних рівнянь (5.5) набуває вигляду:

(5.10)

Рішення системи (5.10) є

(5.11)

Знайдемо дисперсії параметрів рівняння парної регресії.

Для обчислення дисперсії оцінки параметра скористаємося виразом (5.7)

(5.12)

Дисперсію оцінки параметра а 0 зручно обчислити виходячи з виразу (5.11)

(5.13)

Останній доданок в (5.13) дорівнює нулю, так як це ковариация між константою і випадкової змінної . Для отримання дисперсії оцінки параметра необхідно обчислити дисперсію значення вибіркової середньої .

(5.14)

Після підстановки в (5.13) вираження (5.14) остаточно отримаємо:

(5.15)

Знайдемо дисперсії оцінки ендогенної змінної і дисперсію безпосередньо ендогенної змінної у.

(5.16)

Перші два доданків в (5.16) вище обчислені, залишилося знайти останній доданок.

(5.17)

Остаточно для дисперсії прогнозного значення ендогенної змінної отримаємо:

(5.18)

Реальне значення ендогенної змінної у відрізняється від прогнозного на величину випадкового обурення і з дисперсією . Додавши до (5.18) дисперсію випадкового обурення остаточно отримуємо:

(5.19)

Показники точності (дисперсії і стандартні помилки) обчислення оцінок параметрів економетричної моделі у вигляді рівняння парної регресії мають такі властивості.

1. Дисперсії обернено пропорційні обсягу вибірки п. Це означає, що точність обчислення значень оцінок параметрів моделі і прогнозу по ній зростає з ростом обсягу вибірки.

2. Значення дисперсій зменшуються з ростом значення , яке, в даному випадку, характеризує ширину інтервалу зміни регресорів х у вибірці. Це відображає відомий факт: для того щоб точніше провести пряму на площині через дві точки, необхідно відзначити ці точки далі одна від одної.

3. Найбільш точний прогноз по лінійної моделі парної регресії досягається в центрі групування регресів. З видаленням поточного значення регресорів від свого середнього значення призводить до зростання дисперсії прогнозу в квадратичної залежності. Іншими словами, екстраполяція лінійної регресії за межі обстеженого діапазону пояснює змінної може привести до значних похибок.

Зауважимо ще раз, що застосування МПК до оцінки параметрів лінійної алгебри моделі не завжди дозволяє отримати незсунені і ефективні. Для отримання оцінок з необхідними властивостями необхідно, щоб випадкові обурення задовольняли ряду умов. Ці умови сформульовані в теоремі Гаусса - Маркова.

 
Якщо Ви помітили помилку в тексті позначте слово та натисніть Shift + Enter
< Попередня   ЗМІСТ   Наступна >
 
Дисципліни
Агропромисловість
Аудит та Бухоблік
Банківська справа
БЖД
Географія
Документознавство
Екологія
Економіка
Етика та Естетика
Журналістика
Інвестування
Інформатика
Історія
Культурологія
Література
Логіка
Логістика
Маркетинг
Медицина
Нерухомість
Менеджмент
Педагогіка
Політологія
Політекономія
Право
Природознавство
Психологія
Релігієзнавство
Риторика
Соціологія
Статистика
Техніка
Страхова справа
Товарознавство
Туризм
Філософія
Фінанси
Пошук