ОСНОВНЕ ЗАВДАННЯ МНОЖИННОГО РЕГРЕСІЙНОГО АНАЛІЗУ

Нехай є спостереження за залежною змінною Y і набором незалежних змінних Х у X v ..., X j { . Тоді загальний вигляд лінійної моделі множинної регресії, що описує кожне спостереження вихідних даних, можна записати в такий спосіб:

де N - загальне число спостережень; y i - значення ознаки (змінної) Y в г-му спостереженні; х. - значення змінної X. в i-м спостереженні; м - помилка спостереження; 0 Про , 0j, ..., 0 ^ - невідомі параметри.

Рівняння (4.1) називається рівнянням множинної регресії. Як і в рівнянні парної регресії (див. Гл. 3), значення незалежних змінних х. є детермінованими ( невипадковими ) величинами, a y i - стохастическими (випадковими) величинами в силу випадковості е г

У деяких підручниках з економетрики [2, 3, 11, 16, 17, 19, 28] розглядається лінійна модель множинної регресії виду

яка зводиться до моделі (4.1), якщо припустити, що х ю = 1, г = 1, 2, ..., N.

Надалі будемо розглядати рівняння множинної регресії (4.1). Так само як і раніше, для визначення оцінок невідомих параметрів можна використовувати метод найменших квадратів. Для цього необхідно, щоб випадкова помилка задовольняла деякими припущеннями, подібним з припущеннями для моделі парної регресії.

  • 1.? [8;] = 0, i = 1,2, ..., N. Ця умова говорить про те, що Еу. | = 0 Про + 0, х і + ... + Q k x ik , тобто при фіксованих х ~ середнє очікуване значення відгуку дорівнює 0 Про + в { х п + ... + Q k x ik .
  • 2. Е [г]] = Ще.] = Сг, г = 1,2, ..., N - умова гомоскеда- стичностью.
  • 3. E [e j Ej] = 0, i Ф j - некоррелірованні помилок для різних спостережень.

Як і в парній регресії, цих трьох припущень достатньо для коректного оцінювання параметрів моделі (4.1) методом найменших квадратів. Але для перевірки різних гіпотез і побудови довірчих інтервалів необхідно припущення про нормальний розподіл випадкових помилок.

4. е у - Л г (0, a 2 ), i = 1, 2, ЛГ - умова нормальної лінійної регресійної моделі.

Для зручності подальшого викладу доцільно перейти до матричних позначень. Всі спостережувані значення залежної зміною об'єднаємо в вектор Y, все невідомі параметри - в вектор 0, випадкові помилки - в вектор Е:

Введемо детерміновану матрицю значень незалежних змінних

Цю матрицю також називають матрицею значень пояснюють змінних, матрицею значень регресорів, матрицею значень регресійних функцій, матрицею планування. Число стовпців матриці X відповідає кількості невідомих параметрів в моделі (4.1). Перший стовпець, що складається з одиниць, відповідає параметру 0 Про (x j0 = 1).

Слід зазначити, що всі стовпці матриці X повинні бути лінійно незалежними, тобто ця матриця має бути повного столбцовую рангу. Крім цього бажано, щоб число рядків матриці X було більше числа стовпців (N> k + 1). Випадки, коли ця умова не виконується, не розглядаються, так як при цьому число оцінюваних параметрів перевищує число наявних спостережень, що в подальшому не дозволить отримати коректні статистичні результати.

З урахуванням введених позначень рівняння (4.1) може бути записано у вигляді

Припущення про випадкових помилках, введені раніше для вектора Е, приймуть такий вигляд.

  • 1.? [Е] = 0. Ця умова говорить про те, що Е [ Y] = Хв.
  • 2. Е | ЇЇ Г | = А 2 / Л "Ця умова означає наявність властивостей гомоскедастічносгі і некоррелированности помилок спостереження.
  • 3. Е ~ Л г (0, а 2 / у ), де / у - одинична матриця розмірності N. Вектор випадкових помилок має спільне багатовимірне нормальний розподіл з нульовим вектором математичних сподівань і ковариационной матрицею про 2 / ДГ .

Як і в випадку парної регресії, завдання полягає в тому, щоб «найкращим» чином оцінити вектор невідомих параметрів 0.

 
Переглянути оригінал
< Попер   ЗМІСТ   ОРИГІНАЛ   Наст >