Ответы по эконометрике

Автор работы: Пользователь скрыл имя, 19 Января 2011 в 18:12, шпаргалка

Краткое описание

Ответы на 40 вопросов.

Содержимое работы - 1 файл

шпоры эконометр.doc

— 166.50 Кб (Скачать файл)

4.  Параболическая Y(X)=A0+A1*X12+A2*X22+…+AK*XK2 (2.10)

5.  Гиперболическая Y(X)=A0+A1*1/X1+A2*1/X2+…+AK*1/XK (2.11)

Основное значение имеют линейные уравнения в силу их простоты и логичности экономической  интерпретации.

12.Проблемы построения модели регрессии. Пути их преодоления. Важнейшим этапом построения выбранного уравнения множественной регрессии является отбор и последующее включение факторных признаков. Проблема отбора факторных признаков может быть решена на основе интуитивно-логических или многомерных методов анализа. Наиболее приемлемым способом является ШАГОВАЯ РЕГРЕССИЯ. Сущность этого метода заключается в последовательном включении факторов в уравнение регрессии и последующей их проверке на значимость. Факторы поочерёдно вводятся в уравнение прямым методом. При поверке на значимость определяется на сколько уменьшается сумма квадратов остатков и увеличивается величина множественного коэффициента корреляции.

При построении модели регрессии можно столкнуться  с проблемой мультиколлинеарности, под которой понимается тесная зависимость между факторными признаками, включёнными в модель. Данная проблема существенно влияет на результаты исследования. Устранить её можно, исключив из корреляционной модели один или несколько линейно связанных факторов или преобразовав исходные признаки в новые укрупнённые факторы.

13. Оценка существенности  корреляционной зависимости.  Измерение тесноты и направленности связи является важной задачей корреляционно-регрессионного анализа. Теснота связи при линейной зависимости измеряется с помощью линейного коэффициента корреляции: R= (2.12) Значимость линейного коэффициента корреляции проверяется на основе t-критерия Стьюдента, то есть определяется расчётное значение данного показателя: (2.13) Если tр больше tтаб, то это свидетельствует о наличии зависимости между изучаемыми признаками. Теснота связи при криволинейной зависимости измеряется с помощью эмпирического корреляционного отношения: η= (2.14) где -факторная дисперсия, которая показывает вариацию результативного признака под влиянием факторного признака.

(2.15) -общая дисперсия,  которая показывает вариацию  результативного признака под  влиянием всех факторов. (2.16) Множественный  коэффициент корреляции определяется  при наличии линейной связи  между результативным и несколькими факторными признаками:  

где -остаточная дисперсия, которая показывает вариацию результативного признака под влиянием неучтённых факторов. Проверка значимости множественного коэффициента корреляции определяется на основе F-критерия Стьюдента. (2.19) 14. ПРОВЕРКА АДЕКВАТНОСТИ РЕГРЕССИОННЫХ МОДЕЛЕЙ. Проверка адекватности моделей, построенных на основе уравнения регрессии начинается с оценки значимости каждого коэффициента регрессии, т. е. Определяется расчётное значение t-критерия Стьюдента.

(2.20)-дисперсия  коэффициента регрессии

Если t расчётное  больше t табличного при (α; V=n-k-1), где  α - уровень значимости, V=n-k-1 число  степеней свободы. (2.21)

где - дисперсия  результативного признака,

k — количество  объясняющих переменных.

Проверка адекватности этой модели осуществляется с помощью  расчёта средней ошибки аппроксимации   (2.22)

Величина данной ошибки не должна превышать 15 %.

15. Понятие случайной  переменной. Ее математическое  ожидание (М.О.).

Случайная переменная - это любая переменная значение которой, не может быть точно предсказано.

М.О-ие случайной  величины- это взвешенное среднее  всех ее возможных значений. При  этом в качестве весового коэффициента берется вероятность соответствующего исхода.

Пусть случайная  величина может принимать некоторые значения (E1,E2, …,En) и вероятность их получения равна (р1,р2,…,рn).Тогда М.О. случайной переменной определяется след.образом:  

(3.1)

16. Правила расчета  М.О.

Существуют следующие  правила расчета М.О.:

Правило1: М.О. суммы нескольких переменных равно сумме их

М.О-ий: (3.2)

Правило2: если случайную величину умножить на константу, то ее М.О-ие увеличится во столько же раз.

Е(а´ε)= а´Е(ε) (3.3)

Правило3: М.О. константы - есть она сама: F(a)=a (3.4)

17. 4-ре  условия Гаус Маркова.

Для того чтобы анализ, основанный на методе наименьших квадратов давал лучшие результаты, необходимо выполнение условия Гас- Маркова для случайных составляющих:

1. М.О. случайного члена в любом наблюдении должно быть равно нулю: Е(εi)= 0  

В некоторых  ситуациях случайный член будет положительным иногда отрицательным, но он не должен иметь систематического смещения не в 1-ом из направлений.

Если уравнение  регрессии включает постоянный член, то это условие выполняется автоматически. Т.к. роль константы состоит в том, чтобы

определить любую  тенденцию, в которой не учитывают  объясняющие переменные, включенные в уравнение регрессии.

2. Дисперсия случ. члена должна быть постоянна для всех наблюдений.

pop.var (Ei)- теоретическая  вариация. (3.6)

pop.var(Ei) = ^2Ei -одинакова для всех i. (3.6) Если рассматриваемое условие не выполняется, то коэффициенты регрессии будут не эффективны.

3. Это условие предполагает отсутствие системной связи между значениями случайного члена в любых 2-ух наблюдениях.

(3.7) Т.е. если  случ. член велик и положителен в олном наблюдении, это не обуславливает тенденцию к тому, что он будет большим и положительным в другом наблюдении. Случ. члены должны быть независемы друг от друга.

4. С.ч-н должен быть независимо распределен от объясняющей переменной. Значение независимой переменной в каждом наблюдении должно считаться полностью определенным внешними причинами, которые не учитываются в уравнении регрессии. Если условие выполняется, то теоретическая вариация между независимой переменной и случ. членом равна 0. Pop var (xi, εi)=0 (3.8)

18.Условия гомо  и гетероскедастич-сти. Последствия  гетероске-сти.

Первые два  условия Гаус Маркова указывают, что случайные члены появ-ся на основе вероят-тных распреде-й, имеющих  нолевое мат-кое ожидание и одну и ту же дисперсию. Их факти-кие знач-я иногда будут полож-ми, иногда отриц-ми, но но они не будут иметь сильных отклонений в любом наблю-ии, т.е вероят-ть того, что величина e примет какое-то значение, будет одинаковой для всех наблюде-й. Здесь имеет место условие гомоскедастич-ти:Ф(3.6) 

одинакова для  всех i. Вместе с тем возможно, что  теори-ское распред-е случайного члена  яв-ся разным для различ-х наблюд-й  выборки. Это не означает, что слячайный  член будет иметь особенно большие  отклонения в конце выборки, но вероят-сть их получения будет высокая, т.е имеет место условие гетероскедаст-ти: Ф(3.6) не одинакова для всех.

Рис. 1- Различия м/д гомо и гетероскедас-тью.

На рис.2 показано, как будет выглядеть характерная  диаграмма распределения ф-ции y(x), если имеет место гетероскедаст-сть. Рис.2-Влияние гетероскед-сти на распредел-е ф-ции y(x).

При отсутствии гетероскед-сти коэф-ты регрессии  имеют наиболее низкую дисперсию  среди несмещенных оценок. Если имеет  место гетероскед- сть, то оценки метода наименьших квадратов будут не эфф-ны. Гетероскед-сть становится проблемой, когда значение переменных, входящих в уровни регрессии значительно различается в разных наблюдениях. Если истинная зависимость описывается уравнением прямой, то при нем экон-ие переменные меняют свой масштаб одновременно ,то изменение значений, не включаемых переменных и ошибки измерения, влияя совместно на случайный член делает его сравнительно малым при больших X и Y. Гетероске- сть может также появляться при анализе временных рядов.

19.Обнаружение гетероскедастичности.Тест ранговой корреляции Спирмена, тест Глейзера.

Проявление проблем  гетероскед-сти можно предвидеть основываясь на знаниях характера  данных. В этих случаях можно предпринимать  действия на этапе спецификации модели регрессии. Это позволит уменьшить или устранить необходимость формальной проверки. В настоящее время используются следующие виды тестов гетероскед-сти, в которых делается предположение о наличие зависимости между дисперсией случайного члена и величиной объясняющей переменной: 1)Тест ранговой корреляции Спирмена.

При его выполнении предполагается, что дисперсия случайного члена будет либо увеличиваться, либо уменьшаться по мере увеличения X и поэтому в регрессии, оцениваемой  с помощью метода наименьших квадратов  абсолютные величины остатков и значение X будут коррелированны. Данные по X и остатки упорядочиваются, а затем определяется коэффициент ранговой корреляции: Ф(3.9),

Где Дi- разность между рангом X и рангом е, е- остатки(отклонение) фактических значений Y от теоретических значений.

2)Тест  Глейзера.

Чтобы использовать данный метод следует оценить  регрессионную зависимость y(x) с  помощью обычного метода наименьших квадратов, а затем вычислить  абсолютные величины остатков еi по модулю, оценив их регрессию.

20.Обнаружение  гетероскед-сти. Тест Голдфельда Квандта. Появление проблем гетероскед-сти можно предвидеть основываясь на знаниях характера данных. В этих случаях можно предпринимать действия на этапе спецификации модели регрессии. Это позволит уменьшить или устранить необходимость формальной проверки. В настоящее время используются следующие виды тестов гетероскед-сти, в которых делается предположение о наличие зависимости между дисперсией случайного члена и величиной объясняющей переменной:

1)Тест Голдфельда  Квандта.

При проведении проверки по этому критерию предполагается, что дисперсия случайного члена пропорциональна значению X в этом наблюдении. Предполагается, что случайный член распределен нормально и не подвержен автокорреляции. Все наблюдения в выборке упорядочиваются по величине X, после чего оцениваются отдельные регрессии для первых nсо штрихом наблюдений и для последних nсо штрихом наблюдений. Если предположение о наличие гетероскед-сти верна, то дисперсия в последних n наблюдениях будет больше, чем в первых nсо штрихом наблюдениях. Суммы квадратов остатков обозначают для первых nсо штрихом наблюдений обозначают RSS1, для последних nсо штрихом наблюдений RSS2, затем определяют их отношения. Это отношение имеет F-распределения при заданных (n со штрихом-k-1)/(n со штрихом-k-1) степенях свободы. Если n=30, то n со штрихом= min11.

21. Автокорреляция и  ее факторы.

Автокорреляция  в регрессионном анализе обычно встречается при исследовании временных  рядов. Постоянная направленность воздействия  не включенных в уравнении переменных является наиболее частой причиной появления положительной автокорреляции.

Пример1: При оценке спроса на мороженное по ежемесячным данным предполагается, что состояние погоды является единственным важным фактором. При этом проводятся ряд наблюдений, когда теплая погода способствует увеличению спроса, а холодная погода наоборот. Если доход возрастает со временем, то схема наблюдений будет выглядеть след. Образом: Рисунок3 — Положения автокорреляции.

Изменения эконом-кой  конъюнктуры приводит к положительным результатам и в анализе. Автокорреляция является существенной проблемой, когда интервал между наблюдениями имеет небольшую величину. Чем больше этот интервал, тем меньше вероятность того, что при переходе от одного наблюдения к другому характер влияния неучтенных факторов будет сохраняться.

Автокорреляция  может быть отрицательной. Это означает, что корреляция между последовательными  значениями случайного члена отрицательна, т.е за положит-ным значением в  одном наблюдении следует отриц-ное  значение в другом. Тогда диаграмма распределения выглядит след.образом: Рисунок4- Отрицательная автокорреляция.

В экономике  отрицательная автокорреляция встречается  редко, но иногда она появляется при  преобразовании первоначальных моделей  в форму, подходящую для регрессионного анализа.

22. ПОНЯТИЕ ВРЕМЕННЫХ  РЯДОВ. ОСНОВНЫЕ  ЗАДАЧИ ИССЛЕДОВАНИЯ.

Временной ряд — это упорядоченная  последовательность наблюдений за изучаемым  явлением.

Обычно измерения  осуществляются через равные промежутки времени. В каждый момент времени значение исследуемой величины формируется под воздействием большого числа факторов, как случайного, так и неслучайного характера.

Изменение условий  развития объекта исследования ведет  к ослаблению действия одних факторов, усилению других факторов, и, в конечном итоге, к варьированию изучаемого явления.

Характерной чертой временных рядов является то, что  время выступает одним из определяющих факторов. Одним из требований к  временным рядам является сопоставимость результатов наблюдений.

Для обеспечения  сравнимости в случае, когда временными интервалами являются месяцы или дни, необходимо устранить мешающие эффекты.

Информация о работе Ответы по эконометрике