Шпаргалка по эконометрике

Автор работы: Дарья *, 05 Сентября 2010 в 19:37, шпаргалка

Краткое описание

Пространственные данные – характеризуют ситуацию по конкретной переменной (или набору переменных), относящейся к пространственно разделенным сходным объектам в один и тот же момент времени. Таковы, например, данные по курсам покупки или продажи наличной валюты в конкретный день по разным обменным пунктам г. Москвы. Другим примером является, скажем, набор сведений (объем производства, количество работников, доход и др.) по разным фирмам в один и тот же момент времени или период.

Содержимое работы - 1 файл

шпоры мои на печать!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!.doc

— 511.50 Кб (Скачать файл)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

20. Модель множественной  регрессии. Построение системы показателей (факторов).

Связь между у и независимыми факторами  х1, х2, … хn можно охарактеризовать уравнением (моделью) множественной  регрессии.

Y=f (х1, х2, … хn). Эта модель показывает, какие значения в ср принимает результативный показатель У, если переменные Хi примут какие-то свой конкретные значения. В зависимости от функции f будем иметь линейную или не линейную множественную регрессию. Тинтером было доказано, что усложнение формы связи м\у хi и у не принципиально влияет на конечные результаты.

Линейная  модель множественной регрессии.

У=а0+а1х1+ а2х2+…+ аmхm+e    Параметры определяются с помощью методов наименьших квадратов. Для этого проведем все рассуждения в матричной форме. Введем следующие матричные обозначения:

  ;

где У  вектор n значений результативного  показателя.

Х –  матрица n значений m независимых переменных; а матрица параметров

У=Х∙а+ε.

Заметим, что а – выборочные оценки совокупности.

Итак, метод  наименьших квадратов требует мин-ии суммы квадратов отклонений исходных модели значений ,

Далее:

Из матричной  алгебры известно, что , тогда:

S = (YT – aTXT)(Y - Xa) = YT – YTXa(=1) – aTXTY + a 

1 –  это есть матрица размерностью 1Х1, т.е. число-скаляр, а скаляр  при трансформировании не меняется, поэтому  Þ S = YTY – 2aTXTY + aTXTXa → min

Согласно  условию экстремума S по а =0

;

2ХТY+2aXTX=0

XTY=aXTX

Для погашения  а умножим обе части этого  уравнения на (ХТХ)-1, тогда

а= (XTХ)-1∙XTY

Решение задачи нахождения матицы, а возможно лишь в том случае, если строки и столбцы матрицы Х линейно независимы. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

21. Мультиколлинеарность. Последствия мультиколлинеарности. Способы её обнаружения. Способы избавления от мультиколлинеарности.

Мультиколлинеарность  означает наличие в модели линейно зависимых между собой факторов (высокая взаимная коррелированность объясняющих переменных).Она может проявляться в функциональной (явной) и стохастической (скрытой) формах. Вывод о наличии или отсутствии мультиколлинеарности делают, рассматривая коэффициенты корреляции между всеми парами факторных переменных.

Если  одна из объясняющих переменных является лин. функц. зависимостью другой, то функциональная мультикол-ть. При этом определитель матрицы =0 и система норм. ур-ий не имеет решения. Det (X'X)=0

Если  хотя бы м. двумя объясняющими переменными  сущ-ет тесная корреляц. связь, то мы имеем  дело с стохастической формой. В  этом случае определитель матрицы отличен  от 0, но очень мал. → решение матрич. ур-ия будет иметь большие искажения.

Точных  количественных критериев по выявлению  мультикол-ти не сущ-ет, определены лишь эвристические подходы к её обнаружению:

1. Анализир-ся  корреляционная матрица между  объясняющими переменными Х1, Х2,…Хр  и выявляются те пары переменных Xj и Xk, j≠k, для которых к-т корреляции rxjxk ≥ 0,8 (xjxk – мультиколлениарны).

2. Вычисляются  множественные коэф-ты детерминации  между одной из объясняющих  переменных и группой других. Если множ-ый коэф-т детерминации  R² > 0,6, то это свид-ет о мультикол-ти.

3. Вычисляется  определитель матрицы det (X´X); если он равен 0 или мал (одного порядка с ошибками), то это говорит о наличии мультикол-ти.

Мультикол-т  подлежит устранению или уменьшению. Способы устранения:

1. Из 2-х  объясняющих переменных, имеющих  высокий взаимный коэф-т корреляции, одну из них исключают из дальнейшего исследования. Какую именно – определяют на основе экон. соображений. Если таких предпочтений нет, то в модели оставляют ту переменную, которая тесно связана с зависимой переменной. rxjxk > ryxk, то оставляем xj, т.к. rxjxk ≥0,8.

2. Осущ-ся  переход от исходных объясняющих  переменных Х1, Х2,…,Хр, связь между  собой достаточно тесная, к новым  переменным, представляющих линейные  комбинации исходных, - Z1, Z2,….,Zm – число их существенно меньше, чем число объясняющих переменных, и она не мультикол-ны.

* При  отборе факторов надо пользоваться  правилом: число включаемых в  модель факторов д.б. в 6-7 раз  меньше объёма выборки, по которой  строится модель. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

22. Отбор факторов при построении множественной регрессии. Мультикол-сть.

При построении системы факторов необходимо соблюдать  следующие условия: 1) должны быть количественно  измеримы; 2) теоретически обоснованы; 3) линейно независимы друг от друга; 4) одна модель не должна включать в себя совокупный фактор и факторы его образующие; 5) тесно связаны между собой. Для реализации 5-го требования строят матрицу коэф-в парной корреляции. На основании этой матрицы выбирают те факторы, связь которых с величиной наиболее тесная. Затем проверяют наличие мультиколлинеарности (МК) факторов. Два фактора МК, если . МК факторы нельзя включать в одну модель, нужно выбрать один из них или заменить оба совокупной функцией.

. Эта матрица симметрична относительно главной диагонали, т.е. состоит из двух одинаковых треугольников. Она позволяет выбрать факторы наиболее тесно связанные с интересующей нас величиной, а также установить связь между самими факторами. Как правило, в регрессионной модели нельзя включать факторы, тесно связанные между собой. 

28. Оценка существенности (значимости) параметров линейной  регрессии 

Проведем  оценку качества построенной моедли:

А) оценим значимость уравнения регрессии, иначе  ответим на вопрос, соответствует  построенная математическая модель фактическим данным и достаточна ли выкюч в уравнение х-фактроров для объяснения изменения результативного показателя.

Для проверки значимости модели уравнения регрессии  используется F-критерий Фишера по γ вычисляется F расчетное.

,

Fрасч  сравнивается с F крит с 2-я  степенями свободы: υ1 = n-1,  υ2 = n-k-1, где k  - кол-во оцениваемых  параметров. /k=1/

Если Fрасч > с F крит, то уравнение считается  значимым, в противном случае ур-ие не значимо.

Надежность получаемых оценок а и b зависит от ошибки ε.

Нужно найти среднюю квадратическую ошибку

,где

Для значимого  ур-я регрессии строят интервальные оценки параметров a и b.

Интервальная  оценка параметра a, есть:

Замечание: если интервальные границы в разные по знаку, то такие уравнения в  прогнозировании использовать нельзя, т.е. непонятно какое направление. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

23. Модель множественной  регрессии. Построение системы показателей (факторов).

Связь между у и независимыми факторами  х1, х2, … хn можно охарактеризовать уравнением (моделью) множественной  регрессии.

Y=f (х1, х2, … хn). Эта модель показывает, какие значения в ср принимает результативный показатель У, если переменные Хi примут какие-то свой конкретные значения. В зависимости от функции f будем иметь линейную или не линейную множественную регрессию. Тинтером было доказано, что усложнение формы связи м\у хi и у не принципиально влияет на конечные результаты.

Линейная  модель множественной регрессии.

У=а0+а1х1+ а2х2+…+ аmхm+e    Параметры определяются с помощью методов наименьших квадратов. Для этого проведем все рассуждения в матричной форме. Введем следующие матричные обозначения:

  ;

где У  вектор n значений результативного  показателя.

Х –  матрица n значений m независимых переменных; а матрица параметров

У=Х∙а+ε.

Заметим, что а – выборочные оценки совокупности.

Итак, метод  наименьших квадратов требует мин-ии суммы квадратов отклонений исходных модели значений ,

Далее:

Из матричной  алгебры известно, что , тогда:

S = (YT – aTXT)(Y - Xa) = YT – YTXa(=1) – aTXTY + a 

1 –  это есть матрица размерностью 1Х1, т.е. число-скаляр, а скаляр  при трансформировании не меняется, поэтому  Þ S = YTY – 2aTXTY + aTXTXa → min

Согласно  условию экстремума S по а =0

;

2ХТY+2aXTX=0

XTY=aXTX

Для погашения  а умножим обе части этого  уравнения на (ХТХ)-1, тогда

а= (XTХ)-1∙XTY

Решение задачи нахождения матицы, а возможно лишь в том случае, если строки и столбцы матрицы Х линейно независимы. Параметры определяются с помощью методов наименьших квадратов. Но эти параметры можно найти и в итоге программы Регрессия. + БИЛЕТ № 12. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

24. Оценка параметров  множественной регрессии МНК. Свойства оценок МНК.

Линейная  модель множественной регрессии. У=а0+а1х1+ а2х2+…+ аmхm+e

Параметры определяются с помощью методов  наименьших квадратов.

 Для  этого проведем все рассуждения  в матричной форме. Введем следующие  матричные обозначения:

 

;

где У  вектор n значений результативного  показателя.

Х –  матрица n значений m независимых переменных; а матрица параметров

У=Х∙а+ε.

Заметим, что а – выборочные оценки совокупности.

Итак, метод  наименьших квадратов требует мин-ии суммы квадратов отклонений исходных модели значений

,

Далее:

Из матричной  алгебры известно, что  , тогда:

S = (YT – aTXT)(Y - Xa) = YT – YTXa(=1) – aTXTY + a

1 –  это есть матрица размерностью 1Х1, т.е. число-скаляр, а скаляр  при трансформировании не меняется, поэтому S = Þ S = YTY – 2aTXTY + aTXTXa → min

Согласно  условию экстремума S по а =0

;

Информация о работе Шпаргалка по эконометрике