Шпаргалкапо "Эконометрике"

Автор работы: Пользователь скрыл имя, 16 Мая 2012 в 05:34, шпаргалка

Краткое описание

16, 21. Основные понятия и особ-ти эконометрического метода
33. Типы экономических данных, используемых в эконометрических исследованиях.
6. Классификация эконометрических моделей.

Содержимое работы - 1 файл

готово!!!.doc

— 799.50 Кб (Скачать файл)

Для проверки значимости модели регрессии используется F-критерий Фишера, вычисляемый как отношение дисперсии исходного ряда и несмещенной дисперсии остаточной компоненты. Если расчетное значение с n1= k  и n2 = (n - k - 1) степенями свободы, где k – количество факторов, включенных в модель,  больше табличного при заданном уровне значимости, то модель считается значимой. 

Для модели парной регрессии:  

В качестве меры точности применяют несмещенную оценку дисперсии остаточной компоненты, которая представляет собой отношение суммы квадратов уровней остаточной компоненты к величине (n- k -1), где k – количество факторов, включенных в модель. Квадратный корень из этой величины  ( ) называется стандартной ошибкой: Для модели парной регрессии:  
 
 

5. Интервальная оценка параметров модели парной регрессии.

Линейная  регрессия сводится к нахождению уравнения вида или .

Уравнение вида позволяет по заданным значениям фактора x иметь теоретические значения результативного признака, подставляя в него фактические значения фактора х.

Построение  линейной регрессии сводится к оценке ее параметров а и в.

Оценки  параметров линейной регрессии могут  быть найдены разными методами.

1.

2.

Параметр  b называется коэффициентом регрессии. Его величина показывает среднее изменение результата с изменением фактора на одну единицу.

Формально а — значение у при х = 0. Если признак-фактор 
не имеет и не может иметь нулевого значения, то вышеуказанная 
трактовка свободного члена, а не имеет смысла. Параметр, а может 
не иметь экономического содержания. Попытки экономически 
интерпретировать параметр, а могут привести к абсурду, особенно при а < 0. 

Интерпретировать  можно лишь знак при параметре  а. Если а > 0, то относительное изменение результата происходит медленнее, чем изменение фактора.

Уравнение регрессии всегда дополняется показателем  тесноты связи. При использовании  линейной регрессии в качестве такого показателя выступает линейный коэффициент  корреляции rxy. Существуют разные модификации формулы линейного коэффициента корреляции.

Линейный  коэффициент корреляции находится  и границах: -1≤.rxy ≤ 1. При этом чем ближе r к 0 тем слабее корреляция и наоборот чем ближе r к 1 или -1, тем сильнее корреляция, т.е. зависимость х и у близка к линейной. Если r в точности =1или -1 все точки лежат на одной прямой. Если коэф. регрессии b>0 то 0 ≤.rxy ≤ 1 и наоборот при b<0  -1≤.rxy ≤0.   Коэф. корреляции отражает степени линейной зависимости м/у величинами при наличии ярко выраженной зависимости др. вида.

Для оценки качества подбора линейной функции  рассчитывается квадрат линейного  коэффициента корреляции , называемый коэффициентом детерминации. Коэффициент детерминации характеризует долю дисперсии результативного признака y, объясняемую регрессией. Соответствующая величина характеризует долю дисперсии у, вызванную влиянием остальных не учтенных в модели факторов. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

27. Проверка выполнения предпосылок МНК.

Основную  информацию для анализа качества регрессионного уравнения можно  получить из ряда остатков. Иногда только по одному графику остатков можно  судить о качестве аппроксимации. Остатки  модели должны обладать опр. свойствами: несмещенность, состоятельность, эффективность. На практике проверка этих свойств сводится к проверке 5 предпосылок МНК: 1.случайный характер остатков (критерий поворотных точек), 2.независимость уровней в ряде остатков (d-критерий Дарбина-Уотсона), 3.соответствие ряда остатков нормальному закону распределения(RS-критерий), 4.равенство 0 мат. ожидания остатков, 5.гомоскедастичность остатков.

1.Свойство случайности проверяется с помощью критерия поворотных точек или критерия пиков. Уровень в ряде остатков называется поворотной точкой, если он одновременно больше или одновременно меньше 2-ух соседних с ним уровней. Точкам поворота приписывают значения 1, остальным – 0. Свойство случайности выполняется, если количество поворотных точек справа означает, что от выражения внутри них нужно взять целую часть. n – количество уровней в ряде.

2.Для проверки свойства независимости (отсутствие автокорреляции) уровней в ряде остатков используют d-критерий Дарбина-Уотсона. В начале рассчитывают величину d по формуле: . Для этого критерия задаются 2 таблич. границы d1 и d2.

3.Для проверки соответствия ряда остатков нормальному закону распределения используют RS-критерий: RS =(Emax-Emin)/SE. Emax и Emin- соотв. наибольшее и наименьшее значения уровней в ряде остатков. SE- СКО. Если значение RS попадает в табличный интервал, то ряд остатков распределен по норм. закону.

4. Математическое ожидание остатков равно нулю: М (е) = 0. Используют t критерий Стьюдента. , где

Se – среднеквадратическое отклонение

если  F расчетное <F критическим, то метемат ожидание остатков равно нулю.

5.Гомоскедастичность  – постоянство дисперсии остатков  по отношению к фактическим  значениям фактора или показателя. Остатки называются гомоскедастичными, если они сосредоточены в виде горизонтальной полосы около оси xi, в противном случае остатки называют гетероскедастичными. Для исследования гомоскедастичности применяются различные тесты. Один из них называется тест Голдфельда-Квандта: 1) Упорядочение значений показателя у по степени возрастания фактора х. 2) Из упорядоченной совокупности убирают несколько «с» центральных значений: , р – число оцениваемых в модели параметров. В результате, получается 2 совокупности данных, в одной из них значения фактора будет наименьшими, а в другой – наибольшими. 3) Для каждой совокупности строят модель регрессии, по которой находят остатки: . Пусть S1 – большая сумма квадратов ошибок, а S2 – меньшая. 4) Определим отношение . 5) Полученное значение R сравнивают с табличным значением F-критерия Фишера. Если Fтабл<R, то предпосылка о гомоскедастичности нарушена. Чем больше R по отношению к Fтабл, тем более нарушена данная предпосылка. . 

29. Интервалы прогноза по лин ур-нию парной регрессии. (Прогнозирование с применением ур-ния регрессии)..

Регрессионные модели могут быть использованы для  прогнозирования возможных ожидаемых  значений зависимой переменной.

Прогнозируемое  значение переменной получается при подстановке в уравнение регрессии ожидаемой величины фактора .

                                                                               

Данный  прогноз называется точечным. Значение независимой переменной не должно значительно отличаться от входящих в исследуемую выборку, по которой вычислено уравнение регрессии.

Вероятность реализации точечного прогноза теоретически равна нулю. Поэтому рассчитывается средняя ошибка прогноза или доверительный интервал прогноза с достаточно большой надежностью.

доверительные интервалы, зависят от следующих параметров:

- стандартной ошибки ,

- удаления от своего среднего значения ,

- количества наблюдений n

- и уровня значимости прогноза α.

В частности, для прогноза  будущие значения с вероятностью (1 - α) попадут в интервал   
 

 
 

Расположение  границ доверительного интервала показывает, что прогноз значений зависимой  переменной по уравнению регрессии  хорош только в случае, если значение фактора Х не выходит за пределы выборки. Иными словами, экстраполяция по уравнению регрессии может привести к значительным погрешностям. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

24. Понятие и причины гетероскедастичности. Последствия гетероскедастичности. Обнаружение гетероскедастичности.

Гомоскедастичность – постоянство дисперсии остатков по отношению к фактическим значениям фактора или показателя. Остатки называются гомоскедастичными, если они сосредоточены в виде горизонтальной полосы около оси xi, в противном случае остатки называют гетероскедастичными. Для исследования гомоскедастичности применяются различные тесты. Один из них называется тест Голдфельда-Квандта: 1) Упорядочение значений показателя у по степени возрастания фактора х. 2) Из упорядоченной совокупности убирают несколько «с» центральных значений: , р – число оцениваемых в модели параметров. В результате, получается 2 совокупности данных, в одной из них значения фактора будет наименьшими, а в другой – наибольшими. 3) Для каждой совокупности строят модель регрессии, по которой находят остатки: . Пусть S1 – большая сумма квадратов ошибок, а S2 – меньшая. 4) Определим отношение . 5) Полученное значение R сравнивают с табличным значением F-критерия Фишера. Если Fтабл<R, то предпосылка о гомоскедастичности нарушена. Чем больше R по отношению к Fтабл, тем более нарушена данная предпосылка. .

15. Нелинейная регрессия. Нелинейная модель и их линеаризация.

y=f(x) – общий вид. Если в качестве f использовать нелинейную математическую зависимость, то получиться нелинейная модель парной регрессии. Различают 2 класса нелинейных моделей:

1.модели нелинейные относительно фактора, но линейные относительно параметров:

*полиномиальные: у=а01х+а2х23х3+…. Для перехода к линейной функции применяют простую замену переменных (х12, х23), у=а01х+а2х13х2

*гиперболические:  у=а01/х, (х1=1/х); у=а01х1.

  1. степенную модель: у=ахв;
  2. показательную: у=авх;
  3. экспоненциальную: у=кеа+вх.

Модели  являются нелинейными как относительно фактора, так и относительно параметра. Для их линеаризации использую процедуру логарифмирования. Таким образом, общая схема оценивания нелинейных моделей следующая:

1,линеаризация  функции (простой заменой или  логарифмированием);

2,оценка параметров линейной модели МНК;

3,обратный  переход к исходному виду модели.

Различают 2 класса нелинейных регрессий:

-регрессии  нелинейные относительно включенных  в анализ объясняющих переменных, но линейные по оцениваемым параметрам;

-регрессии,  нелинейные по включенным параметрам.

Примером  нелинейной регрессии по включаемым в нее объясняющим переменным могут служить следующие функции:

Полиномы  разных степеней: y=a+bx+cx2+ε,  y=a+bx+cx2+dx3+ ε;

Равносторонняя  гипербола:

К нелинейным регрессиям по оцениваемым параметрам относятся функции:

Степенная y=axb ε

Показательная y=abx ε

Экспоненциальная  у=уa+bx ε

Линеаризация  нелинейной модели представляет собой  преобразование используемой модели в  линейную путем замены переменных на нестепенные.Так, в параболе второй степени  у=а01х+а2х2+ ε заменяя переменные х=х1, х22, получим двухфакторное уравнение линейной регрессии: у=а01х12х2+ ε, для оценки параметров Ã используется МНК. 

14. Мультиколлинеарность. ЕЕ последствия. Способы обнаружения. Способы избавления.

Под  мультиколлинеарностью понимается высокая взаимная коррелированность объясняющих переменных, которая приводит к линейной зависимости нормальных уравнений.  Мультиколлинеарность может возникать в силу разных причин. Например, несколько независимых переменных могут иметь общий временной тренд, относительно которого они совершают малые колебания.Существует несколько способов для определения наличия или отсутствия мультиколлинеарности.Один из подходов заключается в  анализе матрицы коэффициентов парной корреляции. Считают явление мультиколлинеарности в исходных данных установленным, если коэффициент парной корреляции между двумя переменными больше 0,8. Другой подход состоит в исследовании матрицы  Х'Х. Если определитель матрицы Х'Х близок к нулю, то это свидетельствует о наличии мультиколлинеарности.

Информация о работе Шпаргалкапо "Эконометрике"