Шпаргалкапо "Эконометрике"

Автор работы: Пользователь скрыл имя, 16 Мая 2012 в 05:34, шпаргалка

Краткое описание

16, 21. Основные понятия и особ-ти эконометрического метода
33. Типы экономических данных, используемых в эконометрических исследованиях.
6. Классификация эконометрических моделей.

Содержимое работы - 1 файл

готово!!!.doc

— 799.50 Кб (Скачать файл)

Коэффициент частной корреляции. Этот коэф-т предназначен для оценки тесноты связи между 2-мя переменными при фиксировании или исключении влияния др. переменных. , Rxy – алгебраическое дополнение к элементу корреляционной матрицы, стоящему на пересечении строки х и столбца у. Аналогично Rxx, Ryy. Свойства rxy аналогичны свойствам rx,y. 

4. Измерение тесноты связи между показателями. Анализ матрицы коэффициентов парной корреляции.

Коэф-т  парной линейной корреляции: . Свойства: 1) rx,y находится в инт-ле (-1;1); 2) rx,y>0 – связь прямая, rx,y<0 – связь обратная; 3) - связь тесная, - связь слабая.

Пусть в исследовании используется совокупность переменных у1, х1, х2,…, хm. Для каждой пары можно рассчитать коэф-ты парной линейной корреляции. В результате, получиться матрица коэф-в парной корреляции:

. Эта матрица симметрична относительно  главной диагонали, т.е. состоит  из двух одинаковых треугольников.  Она позволяет выбрать факторы наиболее тесно связанные с интересующей нас величиной, а также установить связь между самими факторами. Как правило, в регрессионной модели нельзя включать факторы, тесно связанные между собой. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

25. Регрессионный анализ. Зависимые и независимые переменные

Регрессионный анализ предназначен для исследования зависимости исследуемой переменной от различных факторов и отображения их взаимосвязи в форме регрессионной модели. В регрессионных моделях зависимая (объясняемая) переменная Y  может быть представлена  в виде  функции     f ( ), где -   независимые (объясняющие) переменные, или факторы.

Связь между переменной Y и k независимыми факторами Х можно охарактеризовать функцией регрессии Y= f ( ),  которая показывает, каково будет в среднем значение переменной yi, если переменные Xi примут конкретные значения. Данное обстоятельство позволяет использовать модель регрессии не только для анализа, но и для прогнозирования экономических явлений. Сформулируем регрессионную задачу для случая одного факторного признака.

Пусть имеется набор значений двух переменных: Y= - объясняемая переменная и X= -  объясняющая переменная,  каждая из которых содержит n наблюдений. Пусть между переменными X=   и Y= теоретически существует некоторая линейная зависимость                                                    Данное уравнение будем называть «истинным» уравнением регрессии. Однако в действительности между X и Y наблюдается не столь жесткая связь. Отдельные наблюдения будут отклоняться от линейной зависимости в силу воздействия различных причин. Обычно зависимая переменная находится под влиянием целого ряда факторов, в том числе и не известных исследователю, а также случайных причин (возмущения и помехи); существенным источником отклонений в ряде случаев являются ошибки измерения. Отклонения от предполагаемой формы связи, естественно, могут возникнуть и в силу неправильного выбора вида самого уравнения, описывающего эту зависимость. Учитывая возможные отклонения, линейное уравнение связи двух переменных (парную регрессию) представим в виде                                 , (2)                                    где - постоянная величина (или свободный член уравнения), - коэффициент регрессии, определяющий наклон линии, вдоль которой рассеяны данные наблюдений. Это показатель, характеризующий изменение переменной , при изменении значения на единицу. Если - переменные и положительно коррелированные, если < 0 – отрицательно коррелированны; - случайная переменная, или случайная составляющая, или  остаток, или возмущение.  Она отражает тот факт, что изменение будет неточно описываться изменением Х – присутствуют другие факторы, неучтенные в данной модели.

 Таким  образом, в уравнении (2) значение каждого наблюдения представлено как сумма двух частей — систематической и случайной . В свою очередь систематическую часть можно представить в виде уравнения                                                    Можно сказать, что общим моментом для любой эконометрической модели является разбиение зависимой переменной на две части — объясненную и случайную.                                                     . 

26. Предпосылки применения МНК.

Свойства  коэффициентов регрессии существенным образом зависят от свойств случайной составляющей. Для того чтобы регрессионный анализ, основанный на обычном методе наименьших квадратов, давал наилучшие из всех возможных результаты, должны выполняться следующие условия, известные  как условия Гаусса – Маркова.

1.  Математическое ожидание случайной составляющей в любом наблюдении должно быть равно нулю. Иногда случайная составляющая будет положительной, иногда отрицательной, но она не должна иметь систематического смещения ни в одном из двух возможных направлений.  

2. В модели ( ) возмущение (или зависимая переменная ) есть величина случайная, а объясняющая переменная - величина неслучайная.

Если  это условие выполнено, то теоретическая  ковариация между независимой переменной и случайным членом равна нулю.

3. предполагает отсутствие систематической связи между значениями случайной составляющей в любых двух наблюдениях. Например, если случайная составляющая велика и положительна в одном наблюдении, это не должно обусловливать систематическую тенденцию к тому, что она будет большой и положительной в следующем наблюдении. Случайные составляющие должны быть  независимы друг от друга.

В силу того, что  , данное условие можно записать следующим образом:

Возмущения  не коррелированны (условие независимости случайных составляющих в различных наблюдениях).

Это условие  означает, что отклонения регрессии (а значит, и сама зависимая переменная) не коррелируют. Условие некоррелируемости  ограничительно, например, в случае временного ряда . Тогда третье условие означает отсутствие автокорреляции ряда .

4. дисперсия случайной составляющей должна быть постоянна для всех наблюдений. Эта постоянная дисперсия обычно обозначается , или часто в более краткой форме , а условие записывается следующим образом:

Величина  , конечно, неизвестна. Одна из задач регрессионного анализа состоит в оценке стандартного отклонения случайной составляющей. Это условие  гомоскедастичности, или равноизменчивости случайной составляющей (возмущения).

Предположение о нормальности  Наряду с условиями Гаусса— Маркова обычно также предполагается нормальность распределения случайного члена. Дело в том, что если случайный член нормально распределен, то так же будут распределены и коэффициенты регрессии.  
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

30. Свойства оценок МНК

В тех  случаях, когда предпосылки выполняются, оценки, полученные по МНК, будут обладать свойствами несмещенности, состоятельности и эффективности. Несмещенность оценки означает, что математическое ожидание остатков равно нулю. Если оценки обладают свойством несмещенности, то их можно сравнивать по разным исследованиям.

Для практических целей важна не только несмещенность, но и эффективность оценок. Оценки считаются эффективными, если они характеризуются наименьшей дисперсией. Поэтому несмещенность оценки должна дополняться минимальной дисперсией.

Степень достоверности доверительных интервалов параметров регрессии обеспечивается, если оценки будут не только несмещенными и эффективными, но и состоятельными. Состоятельность оценок характеризует увеличение их точности с увеличением объема выборки.  

9. Лин модель парной регрессии. Оценка параметров модели с пом МНК.

Дня оценки параметров регрессионного уравнения  наиболее часто используют метод наименьших квадратов (МНК).

Метод наименьших квадратов дает оценки, имеющие наименьшую дисперсию в классе всех линейных оценок, если выполняются предпосылки нормальной линейной регрессионной модели. МНК минимизирует сумму квадратов отклонения наблюдаемых значений от модельных значений .Согласно  принципу метода наименьших квадратов, оценки и находятся путем минимизации суммы квадратов

по всем возможным значениям  и при заданных (наблюдаемых) значениях .

В результате применения МНК  получаем формулы для вычисления параметров модели парной регрессии.      

                                               

Такое решение может существовать только при выполнении условия

что равносильно  отличию от нуля определителя системы  нормальных уравнений. Действительно, этот определитель равен

Последнее условие называется условием идентифицируемости модели наблюдений , и означает, что не все значения совпадают между собой. При нарушении этого условия все точки , лежат на одной вертикальной прямой

Оценки  и называют оценками наименьших квадратов. Обратим внимание на полученное выражение для параметра .  В это выражение входят суммы квадратов, участвовавшие ранее в определении выборочной дисперсии

и выборочной ковариации так что, в этих терминах параметр  можно получить следующим образом:  = = =         

22. Показатели качества регрессии модели парной регрессии.

Коэффициент  детерминации  определяется следующим образом:

Коэффициент  детерминации  показывает долю вариации результативного признака, находящегося под воздействием изучаемых факторов, т. е. определяет, какая доля вариации признака Y учтена в модели и обусловлена влиянием на него факторов.

Чем ближе  к 1, тем выше качество модели.

Для оценки качества регрессионных моделей  целесообразно также использовать коэффициент множественной корреляции (индекс корреляции) R

Данный  коэффициент является универсальным, так как он отражает тесноту связи и точность модели, а также может использоваться при любой форме связи переменных. При построении однофакторной модели он равен коэффициенту линейной корреляции .

Очевидно, что чем меньше влияние неучтенных факторов, тем лучше модель соответствует фактическим данным. Также для оценки качества регрессионных моделей целесообразно использовать среднюю ошибку аппроксимации:

 

Чем  меньше рассеяние эмпирических точек  вокруг теоретической линии регрессии, тем меньше средняя ошибка аппроксимации. Ошибка аппроксимации меньше 7 % свидетельствует о хорошем качестве модели. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

2. Анализ статистической значимости параметров модели парной регрессии.

После того как уравнение регрессии  построено,  выполняется проверка значимости  построенного уравнения в целом и отдельных параметров.

Оценить значимость уравнения регрессии  – это означает установить, соответствует  ли математическая модель, выражающая зависимость между Y и Х, фактическим данным и достаточно ли включенных в уравнение объясняющих переменных Х для описания зависимой переменной Y

Оценка  значимости уравнения регрессии  производится для того, чтобы узнать, пригодно уравнение регрессии для  практического использования (например, для прогноза) или нет. При этом выдвигают основную гипотезу о незначимости уравнения в целом, которая формально сводится к гипотезе о равенстве нулю параметров регрессии, или, что то же самое, о равенстве нулю коэффициента детерминации: . Альтернативная ей гипотеза о значимости уравнения — гипотеза о неравенстве нулю параметров регрессии.

Информация о работе Шпаргалкапо "Эконометрике"