Тема 6.  

Тема 6.

Эконометрический анализ при нарушении предпосылок метода наименьших квадратов

4. Понятие мультиколлинеарности.

5. Понятие автокорреляции.

6. Понятие гетероскедастичности

1.

Одним из условий регрессионного анализа является предположение о линейной независимости объясняющих переменных. Однако, может оказаться, что несколько или все объясняющие переменные могут иметь общий временной тренд, относительно которого они совершают малые колебания. Тогда условие линейной независимости объясняющих переменных нарушается.

Мультиколлинеарность – высокая взаимная коррелированность (линейная зависимость) объясняющих переменных. Различают функциональную и стохастическую мультиколлинеарность.

При функциональной мультиколлинеарности определитель матрицы X’X равен 0. В этом случае невозможно решить матричное уравнение (3).

При стохастической мультиколлинеарности определитель матрицы X’X очень мал. Она имеет место, когда хотя бы между двумя объясняющими переменными существует тесная корреляционная связь).

Для определения наличия мультиколлинеарности существуют 2 способа:

1. Рассчитывается матрица коэффициентов парной корреляции. Если между какими-либо независимыми переменными коэффициент парной корреляции больше 0,8, то считают, что мультиколлинеарность имеет место.

2. Рассчитывают определитель матрицы X’X и его близость к 0 также свидетельствует о наличии мультиколлинеарности.

Методы устранения мультиколлинеарности:

1. Из двух объясняющих переменных, имеющих высокий коэффициент корреляции, исключают из рассмотрения ту, которая имеет меньший коэффициент корреляции с зависимой переменной.

2. Метод включения: независимая переменная включается в уравнение регрессии в том случае, если включение существенно увеличивает значение коэффициента множественной корреляции.

3. Метод исключения: после построения уравнения регрессии проверяется значимость всех коэффициентов. Из уравнения исключаются независимые переменные с незначимым коэффициентом. Затем получают новое уравнение регрессии и опять проводят оценку значимости коэффициентов.

Пример 5:

Пусть по данным бюджетного обследования 7 случайно выбранных семей изучалась зависимость накоплений у от дохода х1, расходов на питание х2 и стоимости имущества х3. После применения к исходным данным программы «Корреляция» была получена следующая корреляционная матрица:

у х1 х2 х3
у
х1 0,85
х2 0,8 0,93
х3 -0,75 -0,38 -0,28



тесная корреляционная связь. значит, одну из этих переменных следует исключить из уравнения регрессии. Исключаем х2, т.к. . Таким образом в уравнение регрессии включаются такие факторы как доход х1 и стоимость имущества х3.

Замечание:

При построении регрессии и подборе независимых переменных необходимо помнить, что объем выборки n (число независимых наблюдений) должно быть в 6-7 раз больше чем число независимых переменных.

2.

Третья предпосылка регрессионного анализа гласит: случайные члены теоретической регрессии должны быть независимы друг от друга.

Автокорреляция – зависимость текущего значения случайного члена от непосредственно предшествующего значения. Т.о. автокорреляция случайного члена теоретической регрессии нарушает третью предпосылку регрессионного анализа. Причинами автокорреляции могут быть:

ошибки спецификации, т.е. неправильно подобранная математическая функция,

необходимость введения в модель новой переменной,

ошибки наблюдения.

Наличие или отсутствие автокорреляции проверяют с помощью критерия (статистики) Дарбина Уотсона.

(11)

Значение статистики DW распределено в интервале (0,4). По таблице распределения статистики DW на основании уровня значимости α, объема выборки n и числа объясняющих переменных k находят критические точки d1,d2. Эти точки разбивают отрезок (0,4) на 5 зон:

Проверка автокорреляции:

1. Формируется гипотеза Н0 об отсутствии автокорреляции:

,

и альтернативные гипотезы о наличии положительной автокорреляции и о наличии отрицательной автокорреляции.

2. Выбирается уровень значимости .

3. По таблице распределения DW на основании α, n и k находят критические точки d1и d2

4. На основании выборочных данных для построенной регрессии по формуле (11) рассчитывается значение статистики DW:

- если 0

- если d1

- если d2

- если 4-d2

- если 4-d1

Если DW попадает в зону неопределенности, то для обнаружения автокорреляции используются другие методы. Если утверждается наличие автокорреляции, то тогда пытаются ее устранить.

.

3.

Вторая предпосылка регрессионного анализа гласит, что дисперсия случайного члена регрессионной модели может быть постоянной для любого наблюдения, т.е.:

Это условие называется гомоскедастичностью (одинаковой разбросанностью).

Зависимость дисперсии случайного члена от номера наблюдения называется гетероскедастичностью,

А) гомоскедастичность Б) гетероскедастичность

Для обнаружения гетероскедастичности используются различные тесты. Например, тест ранговой корреляции Спирмена. При наличии гетероскедастичности для оценки параметров регрессионной модели используют обобщенные (или взвешенный МНК(ОМНК)).

Пример 6:

Пусть исследуется зависимость денежных сбережений у от среднедушевых доходов х в 12 семьях. Данные в млн. руб. приводятся в таблице1:

Таблица1

i yi xi i yi xi
0,3 0,1 2,2 0,9 4,0 1,7 5,8 2,5 7,5 3,0 9,0 3,4

Из диаграммы рассеяния видно, что зависимость носит линейный характер, и что с ростом доходов х вариация (разброс) отклонений сбережений у от линии регрессии растет пропорционально х, что позволяет сделать вывод о наличии гетероскедастичности.

Построим регрессию используя МНК и ОМНК. Обратимся к программе «Регрессия» и введем данные таблицы. Получим уравнение регрессии на основе МНК:

(1,316) (0,179)

Предположим, что имеет место гетероскедастичность, тогда регрессионная модель имеет вид:

Разделим обе части этой модели на :

В последней модели случайная ошибка ε не зависит от объясняющей переменной . Сделаем замену переменных:

Получим регрессионную модель:

,

для которой применим классический МНК. В таблице2 подготовим данные для построения последней регрессионной модели:

Таблица2

i i
0,3 0,05 0,733 0,225 0,8 0,283 0,5 0,333 0,25 0,2 0,166 0,828 0,312 0,833 0,3 0,818 0,283 0,142 0,125 0,111 0,1 0,09 0,083

Для преобразованных данных применим МНК. Получим регрессию

(0,12) (0,333)

Делаем обратную замену переменных:

ОМНК:

(0,333) (0,12)

МНК:

(1,316) (0,179)

Стандартные ошибки коэффициентов регрессии, построенной на основе ОМНК, меньше соответствующих ошибок регрессии, построенной на основе МНК. Поэтому в данном примере уравнение регрессии, построенное на основе ОМНК предпочтительнее.

Литература

1. Магнус Л.Р., Катышев П.К., Пересецкий А.А. Эконометрика. М., Дело, 2004.

2. Бородич С.А. Эконометрика. Минск: Новое знание, 2001.

3. Эконометрика. Под редакцией Елисеевой И.И. М.: Финансы и статистика, 2007.

4. Доугерти К. Введение в эконометрику. М.: ИНФРА-М, 2004.

5. Экономико-математические методы и модели. Под ред. Миксюк С.Ф. Мн.: БГЭУ, 2006.

6. Экономико-математические методы и модели; практикум. Под ред. Миксюк С.Ф. Мн.: БГЭУ, 2006.


8500868365022924.html
8500896949380469.html

8500868365022924.html
8500896949380469.html
    PR.RU™