На бирже курсовых и дипломных проектов можно найти образцы готовых работ или получить помощь в написании уникальных курсовых работ, дипломов, лабораторных работ, контрольных работ, диссертаций, рефератов. Так же вы мажете самостоятельно повысить уникальность своей работы для прохождения проверки на плагиат всего за несколько минут.

ЛИЧНЫЙ КАБИНЕТ 

 

Здравствуйте гость!

 

Логин:

Пароль:

 

Запомнить

 

 

Забыли пароль? Регистрация

Повышение уникальности

Предлагаем нашим посетителям воспользоваться бесплатным программным обеспечением «StudentHelp», которое позволит вам всего за несколько минут, выполнить повышение уникальности любого файла в формате MS Word. После такого повышения уникальности, ваша работа легко пройдете проверку в системах антиплагиат вуз, antiplagiat.ru, etxt.ru или advego.ru. Программа «StudentHelp» работает по уникальной технологии и при повышении уникальности не вставляет в текст скрытых символов, и даже если препод скопирует текст в блокнот – не увидит ни каких отличий от текста в Word файле.

Результат поиска


Наименование:


курсовая работа Статистическое исследование корреляционной связи

Информация:

Тип работы: курсовая работа. Добавлен: 04.07.2012. Сдан: 2011. Страниц: 8. Уникальность по antiplagiat.ru: < 30%

Описание (план):


   Содержание 

   Введение  ………………………………………………………………………...3
 1. Корреляционная связь………………………………………………………..5
      1.1 Понятие корреляционной связи…………………………………..…….5
      1.2 Коэффициенты корреляции………………………………………...…...8

      1.3 Коэффициент корреляции Пирсона………………………………...…11

      1.4.Корреляционно-регрессионный метод анализа………………...….…13

      1.5.Непараметрические показатели связи…………………………...……14

 2. Исследование корреляционной зависимости в социально-экономических процессах…………………………………………………………………..…...…17
      2.1 Формула Пирсона  ..……………………………………...…..……...…17
      2.2. Задачи регрессионного анализа………………………………...…..…19
      2.3. Выявление закономерности, выраженной в виде корреляционного уравнения……………………………………………………………………..……21
Заключение…………………………………………...…………….…………...…22
Список  используемой литературы………………………………….……………24
   Приложение 1……………………………………………………………….….26
   Приложение 2…………………………………………………………………. 27 
 
 
 
 
 
 
 
 

  Введение
     Цель статистики в экономике – это возможность правильно выбрать решения в условиях неопределенности сложившейся ситуации, умение спрогнозировать и предугадать социально-экономические явления, сделать правильные выводы и внести свой вклад в развитие экономической жизни.
Выявление взаимосвязей – одна из важнейших  задач применения статистики в экономике.
    Все явления объективного мира взаимосвязаны и взаимообусловлены. Связи между явлениями и признаками отличаются разнообразием. Основное внимание исследователей, как правило, приковано к причинно-следственным связям. При изучении таких связей одни признаки (процессы, явления) высту-пают в качестве факторов (независимых), обусловливающих изменение других признаков (зависимых, результативных). 
Зависимость между признаками – факторами (факторными признаками) и признаками, которые являются результатом влияния этих факторов (результативными признаками) может быть функциональной или корреляционной. 
     Функциональные связи характеризуются полным соответствием между изменением факторного признака и изменением результативного признака, т.е. каждому значению признака-фактора соответствует строго определенное значение результативного признака. 
    Например, компонентная связь и взаимосвязь индексов. 
В корреляционной связи между изменением факторного и результативного признака нет такого полного соответствия, воздействие факторов проявляется лишь в среднем при массовом наблюдении фактических данных. 
Поскольку экономические явления относятся, как правило, к сложным, на формирование уровня результативного признака оказывают влияние многочисленные факторы. Для принятия практических решений учитываются только так называемые основные. В свою очередь сами факторные признаки могут зависеть от изменения ряда причин (факторов). Отсюда одному и тому же значению признака-фактора соответствует целый ряд значений результативного признака. Ведь в каждом конкретном случае степень зависимости тоже может измениться. 

   1. Корреляционная связь

   1.1. Понятие корреляционной связи

   Исследователя нередко интересует, как связаны  между собой две или большее  количество переменных в одной или  нескольких изучаемых выборках. Например, могут ли учащиеся с высоким уровнем тревожности демонстрировать стабильные академические достижения, или связана ли продолжительность работы учителя в школе с размером его заработной платы, или с чем больше связан уровень умственного развития учащихся — с их успеваемостью по математике или по литературе и т.п.
   Такого  рода зависимость между переменными  величинами называется корреляционной, или корреляцией. Корреляционная связь — это согласованное изменение двух признаков, отражающее тот факт, что изменчивость одного признака находится в соответствии с изменчивостью другого.
   Известно, например, что в среднем между  ростом людей и их весом наблюдается  положительная связь, и такая, что  чем больше рост, тем больше вес человека. Однако из этого правила имеются исключения, когда относительно низкие люди имеют избыточный вес, и, наоборот, астеники, при высоком росте имеют малый вес. Причиной подобных исключений является то, что каждый биологический, физиологический или психологический признак определяется воздействием многих факторов: средовых, генетических, социальных, экологических и т.д.
   Корреляционные  связи — это вероятностные изменения, которые можно изучать только на представительных выборках методами математической статистики. Оба термина корреляционная связь и корреляционная зависимость — часто используются как синонимы. Зависимость подразумевает влияние, связь — любые согласованные изменения, которые могут объясняться сотнями причин. Корреляционные связи не могут рассматриваться как свидетельство причинно-следственной зависимости, они свидетельствуют лишь о том, что изменениям одного признака, как правило, сопутствуют определенные изменения другого.
   Корреляционная  зависимость - это изменения, которые вносят значения одного признака в вероятность появления разных значений другого признака.
   Задача  корреляционного анализа сводится к установлению направления (положительное  или отрицательное) и формы (линейная, нелинейная) связи между варьирующими признаками, измерению ее тесноты, и, наконец, к проверке уровня значимости полученных коэффициентов корреляции.                               
           Корреляционные связи различаются по форме, направлению и степени (силе). По форме корреляционная связь может быть прямолинейной или криволинейной. Прямолинейной может быть, например, связь между количеством тренировок на тренажере и количеством правильно решаемых задач в контрольной сессии. Криволинейной может быть, например, связь между уровнем мотивации и эффективностью выполнения задачи. При повышении мотивации эффективность выполнения задачи сначала возрастает, затем достигается оптимальный уровень мотивации, которому соответствует максимальная эффективность выполнения задачи; дальнейшему повышению мотивации сопутствует уже снижение эффективности.    
   По  направлению корреляционная связь может быть положительной ("прямой") и отрицательной ("обратной"). При положительной прямолинейной корреляции более высоким значениям одного признака соответствуют более высокие значения другого, а более низким значениям одного признака - низкие значения другого. При отрицательной корреляции соотношения обратные. При положительной корреляции коэффициент корреляции имеет положительный знак, например r=+0,207, при отрицательной корреляции - отрицательный знак, например r= -0,207.
   Степень, сила или теснота корреляционной связи определяется по величине коэффициента корреляции.
   Сила  связи не зависит от ее направленности и определяется по абсолютному значению коэффициента корреляции.
   Максимальное возможное абсолютное значение коэффициента корреляции r=1,00; минимальное r=0,00.
   Общая классификация корреляционных связей
   сильная, или тесная при коэффициенте корреляции r>0,70;
   средняя  при 0,50<r<0,69;
   умеренная при 0,30<r<0,49;
   слабая     при 0,20<r<0,29;
   очень слабая при r<0,19.
   Переменные  Х и Y могут быть измерены в разных шкалах, именно это определяет выбор соответствующего коэффициента корреляции (см. Приложение 1). 
 
 
 
 
 
 
 

   1.2.  Коэффициенты корреляции

   Термин "корреляция" означает "связь". В эконометрике этот термин обычно используется в сочетании "коэффициенты корреляции". Рассмотрим линейный и непараметрические парные коэффициенты корреляции.         
   Способы измерения связи между двумя случайными переменными. Пусть исходными данными является набор случайных векторов  . Выборочным коэффициентом корреляции, более подробно, выборочным линейным парным коэффициентом корреляции К. Пирсона, как известно, называется число
   
 

   Если  rn = 1, то  причем a>0. Если же rn = - 1, то   причем a<0. Таким образом, близость коэффициента корреляции к 1 (по абсолютной величине) говорит о достаточно тесной линейной связи.        
   Если  случайные вектора  независимы и одинаково распределены, то выборочный коэффициент корреляции сходится к теоретическому при безграничном возрастании объема выборки:
                                          
   (сходимость  по вероятности).         
     Более того, выборочный коэффициент  корреляции является асимптотически  нормальным. Это означает, что 
   

           где Ф(х) - функция стандартного нормального распределения с математическим ожиданием 0 и дисперсией 1, а - асимптотическая дисперсия выборочного коэффициента корреляции.
   

   Здесь под  понимаются теоретические центральные моменты порядка k и m, а именно, 
   
         

     Коэффициенты корреляции типа  rn используются во многих алгоритмах многомерного статистического анализа. В теоретических рассмотрениях часто считают, что случайные вектора  имеют двумерное нормальное распределение. Распределения реальных данных, как правило, отличны от нормальных. Почему же распространено представление о двумерном нормальном распределении? Дело в том, что теория в этом случае проще. В частности, равенство 0 теоретического коэффициента корреляции эквивалентно независимости случайных величин. Поэтому проверка независимости сводится к проверке статистической гипотезы о равенстве 0 теоретического коэффициента корреляции. Эта гипотеза принимается, если |rn| < C(n,?), где C(n,?) - некоторое граничное значение, зависящее от объема выборки n и уровня значимости ?.         
     Если предположение о двумерной  нормальности не выполнено, то  из равенства 0 теоретического  коэффициента корреляции не вытекает  независимость случайных величин. Нетрудно построить пример случайного вектора, для которого коэффициент корреляции равен 0, но координаты зависимы. Кроме того, для проверки гипотез о коэффициенте корреляции нельзя пользоваться таблицами, рассчитанными в предположении нормальности. Можно построить правила принятия решений на основе асимптотической нормальности выборочного коэффициента корреляции. Но есть и другой путь – перейти к непараметрическим коэффициентам корреляции, одинаково пригодным при любом непрерывном распределении случайного вектора.         
     Для расчета непараметрического  коэффициента ранговой корреляции Спирмена необходимо сделать следующее. Для каждого xi рассчитать его ранг ri в вариационном ряду, построенном по выборке x1,x2…xn. Для каждого yi рассчитать его ранг qi в вариационном ряду, построенном по выборке y1,y2,…yn   Для набора из n пар (ri,qi), i = 1,2,..,n вычислить линейный коэффициент корреляции. Он называется коэффициентом ранговой корреляции, поскольку определяется через ранги.
     Коэффициент ранговой корреляции Спирмена остается постоянным при любом строго возрастающем преобразовании шкалы измерения результатов наблюдений. Другими словами, он является адекватным в порядковой шкале, как и другие ранговые статистики.

   1.3 Коэффициент корреляции Пирсона

   Термин  «корреляция» был введен в науку  выдающимся английским естествоиспытателем Френсисом Гальтоном в 1886 г. Однако точную формулу для подсчета коэффициента корреляции разработал его ученик Карл Пирсон.
   Коэффициент характеризует наличие только линейной связи между признаками, обозначаемыми, как правило, символами X и Y. Формула расчета коэффициента корреляции построена таким образом, что, если связь между признаками имеет линейный характер, коэффициент Пирсона точно устанавливает тесноту этой связи. Поэтому он называется также коэффициентом линейной корреляции Пирсона. Если же связь между переменными X и Y не линейна, то Пирсон предложил для оценки тесноты этой связи так называемое корреляционное отношение.
   Величина  коэффициента линейной корреляции Пирсона не может превышать +1 и быть меньше чем -1. Эти два числа +1 и -1 — являются границами для коэффициента корреляции. Когда при расчете получается величина большая +1 или меньшая -1 — следовательно произошла ошибка в вычислениях.
   Знак  коэффициента корреляции очень важен  для интерпретации полученной связи. Подчеркнем еще раз, что если знак коэффициента линейной корреляции — плюс, то связь между коррелирующими признаками такова, что большей величине одного признака (переменной) соответствует большая величина другого признака (другой переменной). Иными словами, если один показатель (переменная) увеличивается, то соответственно увеличивается и другой показатель (переменная). Такая зависимость носит название прямо пропорциональной зависимости.
   Если  же получен знак минус, то большей  величине одного признака соответствует  меньшая величина другого. Иначе  говоря, при наличии знака минус, увеличению одной переменной (признака, значения) соответствует уменьшение другой переменной. Такая зависимость носит название обратно пропорциональной зависимости.
   В общем виде формула для подсчета коэффициента корреляции такова:
   
  (1)

   где  хi — значения, принимаемые в выборке X,
   yi — значения, принимаемые в выборке Y;
    — средняя по X, — средняя по Y.
   Расчет  коэффициента корреляции Пирсона предполагает, что переменные Х и У распределены нормально.
   В формуле (1) встречается величина при делении на n (число значений переменной X или Y) она называется ковариацией. Формула предполагает также, что при расчете коэффициентов корреляции число значений переменной Х равно числу значений переменной Y.
   Число степеней свободы  k=n-2.

   1.4. Корреляционно-регрессионный метод анализа

   Методы  регрессионного анализа рассчитаны, главным образом, на случай устойчивого нормального распределения, в котором изменения от опыта к опыту проявляются лишь в виде независимых испытаний.
   Выделяются  различные формальные задачи регрессионного анализа. Они могут быть простыми или сложными по формулировкам, по математическим средствам и трудоемкости.
   Первая  задача — выявить факт изменчивости изучаемого явления при определенных, но не всегда четко фиксированных условиях.
   Вторая  задача — выявить тенденцию как периодическое изменение признака. Сам по себе этот признак может быть зависим или не зависим от переменной-условия (он может зависеть от неизвестных или неконтролируемых исследователем условий).
   Проверка гипотез об отсутствии или наличии тенденции может выполняться с использованием критерия Аббе.
   Критерий  Аббе предназначен для проверки гипотез о равенстве средних значений, установленных для 4<n<60 взаимно независимых нормально распределенных выборок.
   Эмпирическое значение критерия Аббе вычисляется по формуле:
   
   (2)

   где    —   среднее арифметическое из выборки;
   п – число значений в выборке.
   Согласно  критерию, гипотеза о равенстве средних  отклоняется (принимается альтернативная гипотеза), если значение статистики . Табличное (критическое) значение статистики определяется из таблицы для q-критерия Аббе.
   В качестве таких величин, для которых применим критерий Аббе, могут выступать выборочные доли или проценты, средние арифметические и другие статистики выборочных распределений, если они близки к нормальному (или предварительно нормализованы). Поэтому критерий Аббе может найти широкое применение в психолого-педагогических исследованиях. Рассмотрим пример выявления тенденции с помощью критерия Аббе.
   Третья  задача – это выявление закономерности, выраженной в виде корреляционного уравнения (регрессии). 

   1.5. Непараметрические показатели связи

   В статистической практике могут встречаться  такие случаи, когда качества факторных  и результативных признаков не могут  быть выражены численно. Поэтому для  измерения тесноты зависимости  необходимо использовать другие показатели. Для этих целей используются так называемые непараметрические методы.
   Наибольшее  распространение имеют ранговые коэффициенты корреляции, в основу которых положен принцип нумерации значений статистического ряда. При использовании коэффициентов корреляции рангов коррелируются не сами значения показателей х и у, а только номера их мест, которые они занимают в каждом ряду значений. В этом случае номер каждой отдельной единицы будет ее рангом.
   Коэффициент корреляции рангов Спирмэна (р) основан на рассмотрении разности рангов значений результативного и факторного признаков и может быть рассчитан по формуле
   

   где d = Nx - Ny , т.е. разность рангов каждой пары значений х и у; n - число наблюдений.
   Ранговый коэффициент корреляции Кендэла ( ) можно определить по формуле
   

   где S = P + Q.
   К непараметрическим методам исследования можно отнести коэффициент ассоциации Кас и коэффициент контингенции Ккон , которые используются, если, например, необходимо исследовать тесноту зависимости между качественными признаками, каждый из которых представлен в виде альтернативных признаков.
   Для определения этих коэффициентов создается расчетная таблица (см. Приложение 2.)
   Коэффициент ассоциации можно расcчитать по формуле
   

   Коэффициент контингенции рассчитывается по формуле
   

   Нужно иметь в виду, что для одних  и тех же данных коэффициент контингенции (изменяется от -1 до +1) всегда меньше коэффициента ассоциации.
   Если  необходимо оценить тесноту связи между альтернативными признаками, которые могут принимать любое число вариантов значений, применяется коэффициент взаимной сопряженности Пирсона (КП ).
   Таблица 3.
   Для исследования такого рода связи первичную  статистическую информацию располагают  в форме таблицы:
   Признаки    A    B    C    Итого
   D    m11    m12    m13    ?m1j
   E    m21    m22    m23    ?m2j
   F    m31    m32    m33    ?m3j
   Итого    ?mj1    ?mj2    ?mj3    П
   Здесь mij - частоты взаимного сочетания двух атрибутивных признаков; П - число пар наблюдений.
   Коэффициент Фехнера, характеризующий элементарную степень тесноты связи, который целесообразно использовать для установления факта наличия связи, когда существует небольшой объем исходной информации. Данный коэффициент определяется по формуле
   

   где na - количество совпадений знаков отклонений индивидуальных величин от их средней арифметической; nb - соответственно количество несовпадений.
   Коэффициент Фехнера может изменяться в пределах -1,0 ? Кф  ? +1,0. 
 

   2. Исследование корреляционной зависимости в социальных экономический процессах

   2.1. Пример 1 формула  Пирсона

     10 школьникам были даны тесты на наглядно-образное и вербальное мышление. Измерялось среднее время решения заданий теста в секундах. Исследователя интересует вопрос: существует ли взаимосвязь между временем решения этих задач? Переменная X — обозначает среднее время решения наглядно-образных, а переменная Y— среднее время решения вербальных заданий тестов.
   Решение.
   Представим исходные данные в виде таблицы 2, в которой введены дополнительные столбцы, необходимые для расчета по формуле (1).
   Таблица 4
   № испы-туемых

   x

   y    хi-    i- )2  yi- (yi- )2    
   1    19    17 -16,7    278,9    -7,2    51,84    120,24
   2    32    7 -3,7    13,69    -17,2 295,84    63,64
   3    33    17 -2,7    7,29    -7,2    51,84    19,44
   4    44    28 8,3    68,89    3,8    14,44    31,54
   5    28    27 -7,7    59,29    2,8    7,84    -21,56
   6    35    31 -0,7    0,49    6,8    46,24    -4,76
   7    39    20 3,3    10,89    -4,2    17,64    -13,86
   8    39    17 3,3    10,89    -7,2    51,84    -23,76
   9    44    35 8,3    68,89    10,8 116,64    89,64
   10    44    43 8,3    68,89    18,8 353,44    156,04
Сумма    357    242         588,1      1007,6    416,6
Среднее 35,7 24,2                         
    
   Рассчитываем  эмпирическую величину коэффициента корреляции по формуле (1):
   

   При нахождении критических значений для  вычисленного коэффициента линейной корреляции Пирсона число степеней свободы рассчитывается как
k = n – 2 = 8.
   ккрит=0,72 > 0,54 , следовательно, гипотеза Н1 отвергается и принимается гипотеза H0, иными словами, связь между временем решения наглядно-образных и вербальных заданий теста не доказана.

   2.2. Задачи регрессионного анализа

   В табл. 5 представлена динамика процента студентов IV курса, на «отлично» сдававших экзамены в зимние сессии на протяжении 10 лет работы  одного из  факультетов университета.  Требуется установить, есть ли тенденция к повышению успеваемости.
   Таблица 5.
   Динамика  процента отличников четвертого курса за 10 лет работы факультета
   
   Учебный год    %
   1995-96    10,8
   1996-97    16,4
   1997-98    17,4
   1998-99    22,0
   1999-00    23,0
   2000-01    21,5
   2001-02    26,1
   2002-03    17,2
   2003-04    27,5
   2004-05    33,0
     
 
 
 
 
 
 

   В качестве нулевой проверяем гипотезу об отсутствии тенденции, т. е. о равенстве процентов.
   Усредняем проценты, приведенные в табл. 5, находим, что =21,5. Вычисляем разности между последующими и предыдущими значениями в выборке, возводим их в квадрат и суммируем:
   
   Аналогично  вычисляет знаменатель в формуле (1), суммируя квадраты разностей между каждым измерением и средним арифметическим:
   
   Теперь  по формуле (2) получаем:
   
   В таблице критерия Аббе находим, что при n=10 и уровне значимости 0,05 критическое значение qкрит=0,5311 что больше полученного нами 0,41, следовательно гипотезу о равенстве процента «отличников» приходится отклонить, и можно принять альтернативную гипотезу о наличии тенденции.

  2.3. Пример это выявление  закономерности, выраженной в виде корреляционного уравнения.

  Эстонский исследователь Я. Микк, изучая трудности понимания текста, установил «формулу читаемости», которая представляет собой множественную линейную регрессию:
    — оценка трудности понимания  текста,
  где х1 - длина самостоятельных предложений в количестве печатных знаков,
  х2 - процент различных незнакомых слов,
  х3 - абстрактность повторяющихся понятий, выраженных существительными.
  Сравнивая между собой коэффициенты регрессии, выражающие степень влияния факторов, можно видеть, что трудность понимания  текста определяется прежде всего его абстрактностью. Вдвое меньше (0,27) трудность понимания текста зависит от числа незнакомых слов и практически она совсем не зависит от длины предложении. 
 

   Заключение
и т.д.................


Перейти к полному тексту работы


Скачать работу с онлайн повышением уникальности до 90% по antiplagiat.ru, etxt.ru или advego.ru


Смотреть полный текст работы бесплатно


Смотреть похожие работы


* Примечание. Уникальность работы указана на дату публикации, текущее значение может отличаться от указанного.