ОСНОВНЕ ЗАВДАННЯ МНОЖИННОГО РЕГРЕСІЙНОГО АНАЛІЗУ
Нехай є спостереження за залежною змінною Y і набором незалежних змінних Х у X v ..., X j { . Тоді загальний вигляд лінійної моделі множинної регресії, що описує кожне спостереження вихідних даних, можна записати в такий спосіб:
де N - загальне число спостережень; y i - значення ознаки (змінної) Y в г-му спостереженні; х. - значення змінної X. в i-м спостереженні; м - помилка спостереження; 0 Про , 0j, ..., 0 ^ - невідомі параметри.
Рівняння (4.1) називається рівнянням множинної регресії. Як і в рівнянні парної регресії (див. Гл. 3), значення незалежних змінних х. є детермінованими ( невипадковими ) величинами, a y i - стохастическими (випадковими) величинами в силу випадковості е г
У деяких підручниках з економетрики [2, 3, 11, 16, 17, 19, 28] розглядається лінійна модель множинної регресії виду
яка зводиться до моделі (4.1), якщо припустити, що х ю = 1, г = 1, 2, ..., N.
Надалі будемо розглядати рівняння множинної регресії (4.1). Так само як і раніше, для визначення оцінок невідомих параметрів можна використовувати метод найменших квадратів. Для цього необхідно, щоб випадкова помилка задовольняла деякими припущеннями, подібним з припущеннями для моделі парної регресії.
- 1.? [8;] = 0, i = 1,2, ..., N. Ця умова говорить про те, що Еу. | = 0 Про + 0, х і + ... + Q k x ik , тобто при фіксованих х ~ середнє очікуване значення відгуку дорівнює 0 Про + в { х п + ... + Q k x ik .
- 2. Е [г]] = Ще.] = Сг, г = 1,2, ..., N - умова гомоскеда- стичностью.
- 3. E [e j Ej] = 0, i Ф j - некоррелірованні помилок для різних спостережень.
Як і в парній регресії, цих трьох припущень достатньо для коректного оцінювання параметрів моделі (4.1) методом найменших квадратів. Але для перевірки різних гіпотез і побудови довірчих інтервалів необхідно припущення про нормальний розподіл випадкових помилок.
4. е у - Л г (0, a 2 ), i = 1, 2, ЛГ - умова нормальної лінійної регресійної моделі.
Для зручності подальшого викладу доцільно перейти до матричних позначень. Всі спостережувані значення залежної зміною об'єднаємо в вектор Y, все невідомі параметри - в вектор 0, випадкові помилки - в вектор Е:
Введемо детерміновану матрицю значень незалежних змінних
Цю матрицю також називають матрицею значень пояснюють змінних, матрицею значень регресорів, матрицею значень регресійних функцій, матрицею планування. Число стовпців матриці X відповідає кількості невідомих параметрів в моделі (4.1). Перший стовпець, що складається з одиниць, відповідає параметру 0 Про (x j0 = 1).
Слід зазначити, що всі стовпці матриці X повинні бути лінійно незалежними, тобто ця матриця має бути повного столбцовую рангу. Крім цього бажано, щоб число рядків матриці X було більше числа стовпців (N> k + 1). Випадки, коли ця умова не виконується, не розглядаються, так як при цьому число оцінюваних параметрів перевищує число наявних спостережень, що в подальшому не дозволить отримати коректні статистичні результати.
З урахуванням введених позначень рівняння (4.1) може бути записано у вигляді
Припущення про випадкових помилках, введені раніше для вектора Е, приймуть такий вигляд.
- 1.? [Е] = 0. Ця умова говорить про те, що Е [ Y] = Хв.
- 2. Е | ЇЇ Г | = А 2 / Л "Ця умова означає наявність властивостей гомоскедастічносгі і некоррелированности помилок спостереження.
- 3. Е ~ Л г (0, а 2 / у ), де / у - одинична матриця розмірності N. Вектор випадкових помилок має спільне багатовимірне нормальний розподіл з нульовим вектором математичних сподівань і ковариационной матрицею про 2 / ДГ .
Як і в випадку парної регресії, завдання полягає в тому, щоб «найкращим» чином оцінити вектор невідомих параметрів 0.