Статистическое исследование корреляционной связи

Автор работы: Пользователь скрыл имя, 17 Ноября 2011 в 20:34, курсовая работа

Краткое описание

Цель статистики в экономике – это возможность правильно выбрать решения в условиях неопределенности сложившейся ситуации, умение спрогнозировать и предугадать социально-экономические явления, сделать правильные выводы и внести свой вклад в развитие экономической жизни.
Выявление взаимосвязей – одна из важнейших задач применения статистики в экономике.

Содержание работы

Введение ………………………………………………………………………...3
1. Корреляционная связь………………………………………………………..5
1.1 Понятие корреляционной связи…………………………………..…….5
1.2 Коэффициенты корреляции………………………………………...…...8
1.3 Коэффициент корреляции Пирсона………………………………...…11
1.4.Корреляционно-регрессионный метод анализа………………...….…13
1.5.Непараметрические показатели связи…………………………...……14
2. Исследование корреляционной зависимости в социально-экономических процессах…………………………………………………………………..…...…17
2.1 Формула Пирсона ..……………………………………...…..……...…17
2.2. Задачи регрессионного анализа………………………………...…..…19
2.3. Выявление закономерности, выраженной в виде корреляционного уравнения……………………………………………………………………..……21
Заключение…………………………………………...…………….…………...…22
Список используемой литературы…

Содержимое работы - 1 файл

курсовая Статистика.doc

— 216.00 Кб (Скачать файл)

   Содержание 

   Введение  ………………………………………………………………………...3

 1. Корреляционная связь………………………………………………………..5

      1.1 Понятие корреляционной связи…………………………………..…….5

      1.2 Коэффициенты корреляции………………………………………...…...8

      1.3 Коэффициент корреляции Пирсона………………………………...…11

      1.4.Корреляционно-регрессионный метод анализа………………...….…13

      1.5.Непараметрические показатели связи…………………………...……14

 2. Исследование корреляционной зависимости в социально-экономических процессах…………………………………………………………………..…...…17

      2.1 Формула Пирсона  ..……………………………………...…..……...…17

      2.2. Задачи регрессионного анализа………………………………...…..…19

      2.3. Выявление закономерности, выраженной в виде корреляционного уравнения……………………………………………………………………..……21

Заключение…………………………………………...…………….…………...…22

Список  используемой литературы………………………………….……………24

   Приложение 1……………………………………………………………….….26

   Приложение 2…………………………………………………………………. 27 
 
 
 
 
 
 
 
 

  Введение

     Цель статистики в экономике – это возможность правильно выбрать решения в условиях неопределенности сложившейся ситуации, умение спрогнозировать и предугадать социально-экономические явления, сделать правильные выводы и внести свой вклад в развитие экономической жизни.

Выявление взаимосвязей – одна из важнейших  задач применения статистики в экономике.

    Все явления объективного мира взаимосвязаны и взаимообусловлены. Связи между явлениями и признаками отличаются разнообразием. Основное внимание исследователей, как правило, приковано к причинно-следственным связям. При изучении таких связей одни признаки (процессы, явления) высту-пают в качестве факторов (независимых), обусловливающих изменение других признаков (зависимых, результативных). 
Зависимость между признаками – факторами (факторными признаками) и признаками, которые являются результатом влияния этих факторов (результативными признаками) может быть функциональной или корреляционной. 
     Функциональные связи характеризуются полным соответствием между изменением факторного признака и изменением результативного признака, т.е. каждому значению признака-фактора соответствует строго определенное значение результативного признака. 
    Например, компонентная связь и взаимосвязь индексов. 
В корреляционной связи между изменением факторного и результативного признака нет такого полного соответствия, воздействие факторов проявляется лишь в среднем при массовом наблюдении фактических данных. 
Поскольку экономические явления относятся, как правило, к сложным, на формирование уровня результативного признака оказывают влияние многочисленные факторы. Для принятия практических решений учитываются только так называемые основные. В свою очередь сами факторные признаки могут зависеть от изменения ряда причин (факторов). Отсюда одному и тому же значению признака-фактора соответствует целый ряд значений результативного признака. Ведь в каждом конкретном случае степень зависимости тоже может измениться. 

   1. Корреляционная связь

   1.1. Понятие корреляционной связи

   Исследователя нередко интересует, как связаны  между собой две или большее  количество переменных в одной или  нескольких изучаемых выборках. Например, могут ли учащиеся с высоким уровнем тревожности демонстрировать стабильные академические достижения, или связана ли продолжительность работы учителя в школе с размером его заработной платы, или с чем больше связан уровень умственного развития учащихся — с их успеваемостью по математике или по литературе и т.п.

   Такого  рода зависимость между переменными  величинами называется корреляционной, или корреляцией. Корреляционная связь — это согласованное изменение двух признаков, отражающее тот факт, что изменчивость одного признака находится в соответствии с изменчивостью другого.

   Известно, например, что в среднем между  ростом людей и их весом наблюдается  положительная связь, и такая, что  чем больше рост, тем больше вес человека. Однако из этого правила имеются исключения, когда относительно низкие люди имеют избыточный вес, и, наоборот, астеники, при высоком росте имеют малый вес. Причиной подобных исключений является то, что каждый биологический, физиологический или психологический признак определяется воздействием многих факторов: средовых, генетических, социальных, экологических и т.д.

   Корреляционные  связи — это вероятностные изменения, которые можно изучать только на представительных выборках методами математической статистики. Оба термина корреляционная связь и корреляционная зависимость — часто используются как синонимы. Зависимость подразумевает влияние, связь — любые согласованные изменения, которые могут объясняться сотнями причин. Корреляционные связи не могут рассматриваться как свидетельство причинно-следственной зависимости, они свидетельствуют лишь о том, что изменениям одного признака, как правило, сопутствуют определенные изменения другого.

   Корреляционная  зависимость - это изменения, которые вносят значения одного признака в вероятность появления разных значений другого признака.

   Задача  корреляционного анализа сводится к установлению направления (положительное  или отрицательное) и формы (линейная, нелинейная) связи между варьирующими признаками, измерению ее тесноты, и, наконец, к проверке уровня значимости полученных коэффициентов корреляции.                               

           Корреляционные связи различаются по форме, направлению и степени (силе). По форме корреляционная связь может быть прямолинейной или криволинейной. Прямолинейной может быть, например, связь между количеством тренировок на тренажере и количеством правильно решаемых задач в контрольной сессии. Криволинейной может быть, например, связь между уровнем мотивации и эффективностью выполнения задачи. При повышении мотивации эффективность выполнения задачи сначала возрастает, затем достигается оптимальный уровень мотивации, которому соответствует максимальная эффективность выполнения задачи; дальнейшему повышению мотивации сопутствует уже снижение эффективности.    

   По  направлению корреляционная связь может быть положительной ("прямой") и отрицательной ("обратной"). При положительной прямолинейной корреляции более высоким значениям одного признака соответствуют более высокие значения другого, а более низким значениям одного признака - низкие значения другого. При отрицательной корреляции соотношения обратные. При положительной корреляции коэффициент корреляции имеет положительный знак, например r=+0,207, при отрицательной корреляции - отрицательный знак, например r= -0,207.

   Степень, сила или теснота корреляционной связи определяется по величине коэффициента корреляции.

   Сила  связи не зависит от ее направленности и определяется по абсолютному значению коэффициента корреляции.

   Максимальное возможное абсолютное значение коэффициента корреляции r=1,00; минимальное r=0,00.

   Общая классификация корреляционных связей

   сильная, или тесная при коэффициенте корреляции r>0,70;

   средняя  при 0,50<r<0,69;

   умеренная при 0,30<r<0,49;

   слабая     при 0,20<r<0,29;

   очень слабая при r<0,19.

   Переменные  Х и Y могут быть измерены в разных шкалах, именно это определяет выбор соответствующего коэффициента корреляции (см. Приложение 1). 
 
 
 
 
 
 
 

   1.2.  Коэффициенты корреляции

   Термин "корреляция" означает "связь". В эконометрике этот термин обычно используется в сочетании "коэффициенты корреляции". Рассмотрим линейный и непараметрические парные коэффициенты корреляции.         

   Способы измерения связи между двумя случайными переменными. Пусть исходными данными является набор случайных векторов  . Выборочным коэффициентом корреляции, более подробно, выборочным линейным парным коэффициентом корреляции К. Пирсона, как известно, называется число

   

 

   Если  rn = 1, то  причем a>0. Если же rn = - 1, то   причем a<0. Таким образом, близость коэффициента корреляции к 1 (по абсолютной величине) говорит о достаточно тесной линейной связи.        

   Если  случайные вектора  независимы и одинаково распределены, то выборочный коэффициент корреляции сходится к теоретическому при безграничном возрастании объема выборки:

                                          

   (сходимость  по вероятности).         

     Более того, выборочный коэффициент  корреляции является асимптотически  нормальным. Это означает, что 

   

           где Ф(х) - функция стандартного нормального распределения с математическим ожиданием 0 и дисперсией 1, а - асимптотическая дисперсия выборочного коэффициента корреляции.

   

   Здесь под  понимаются теоретические центральные моменты порядка k и m, а именно, 

   

         

     Коэффициенты корреляции типа  rn используются во многих алгоритмах многомерного статистического анализа. В теоретических рассмотрениях часто считают, что случайные вектора  имеют двумерное нормальное распределение. Распределения реальных данных, как правило, отличны от нормальных. Почему же распространено представление о двумерном нормальном распределении? Дело в том, что теория в этом случае проще. В частности, равенство 0 теоретического коэффициента корреляции эквивалентно независимости случайных величин. Поэтому проверка независимости сводится к проверке статистической гипотезы о равенстве 0 теоретического коэффициента корреляции. Эта гипотеза принимается, если |rn| < C(n,α), где C(n,α) - некоторое граничное значение, зависящее от объема выборки n и уровня значимости α.         

     Если предположение о двумерной  нормальности не выполнено, то  из равенства 0 теоретического  коэффициента корреляции не вытекает  независимость случайных величин. Нетрудно построить пример случайного вектора, для которого коэффициент корреляции равен 0, но координаты зависимы. Кроме того, для проверки гипотез о коэффициенте корреляции нельзя пользоваться таблицами, рассчитанными в предположении нормальности. Можно построить правила принятия решений на основе асимптотической нормальности выборочного коэффициента корреляции. Но есть и другой путь – перейти к непараметрическим коэффициентам корреляции, одинаково пригодным при любом непрерывном распределении случайного вектора.         

     Для расчета непараметрического  коэффициента ранговой корреляции Спирмена необходимо сделать следующее. Для каждого xi рассчитать его ранг ri в вариационном ряду, построенном по выборке x1,x2…xn. Для каждого yi рассчитать его ранг qi в вариационном ряду, построенном по выборке y1,y2,…yn   Для набора из n пар (ri,qi), i = 1,2,..,n вычислить линейный коэффициент корреляции. Он называется коэффициентом ранговой корреляции, поскольку определяется через ранги.

     Коэффициент ранговой корреляции Спирмена остается постоянным при любом строго возрастающем преобразовании шкалы измерения результатов наблюдений. Другими словами, он является адекватным в порядковой шкале, как и другие ранговые статистики.

   1.3 Коэффициент корреляции Пирсона

   Термин  «корреляция» был введен в науку  выдающимся английским естествоиспытателем Френсисом Гальтоном в 1886 г. Однако точную формулу для подсчета коэффициента корреляции разработал его ученик Карл Пирсон.

   Коэффициент характеризует наличие только линейной связи между признаками, обозначаемыми, как правило, символами X и Y. Формула расчета коэффициента корреляции построена таким образом, что, если связь между признаками имеет линейный характер, коэффициент Пирсона точно устанавливает тесноту этой связи. Поэтому он называется также коэффициентом линейной корреляции Пирсона. Если же связь между переменными X и Y не линейна, то Пирсон предложил для оценки тесноты этой связи так называемое корреляционное отношение.

   Величина  коэффициента линейной корреляции Пирсона не может превышать +1 и быть меньше чем -1. Эти два числа +1 и -1 — являются границами для коэффициента корреляции. Когда при расчете получается величина большая +1 или меньшая -1 — следовательно произошла ошибка в вычислениях.

   Знак  коэффициента корреляции очень важен  для интерпретации полученной связи. Подчеркнем еще раз, что если знак коэффициента линейной корреляции — плюс, то связь между коррелирующими признаками такова, что большей величине одного признака (переменной) соответствует большая величина другого признака (другой переменной). Иными словами, если один показатель (переменная) увеличивается, то соответственно увеличивается и другой показатель (переменная). Такая зависимость носит название прямо пропорциональной зависимости.

Информация о работе Статистическое исследование корреляционной связи