На бирже курсовых и дипломных проектов можно найти образцы готовых работ или получить помощь в написании уникальных курсовых работ, дипломов, лабораторных работ, контрольных работ, диссертаций, рефератов. Так же вы мажете самостоятельно повысить уникальность своей работы для прохождения проверки на плагиат всего за несколько минут.

ЛИЧНЫЙ КАБИНЕТ 

 

Здравствуйте гость!

 

Логин:

Пароль:

 

Запомнить

 

 

Забыли пароль? Регистрация

Повышение уникальности

Предлагаем нашим посетителям воспользоваться бесплатным программным обеспечением «StudentHelp», которое позволит вам всего за несколько минут, выполнить повышение уникальности любого файла в формате MS Word. После такого повышения уникальности, ваша работа легко пройдете проверку в системах антиплагиат вуз, antiplagiat.ru, etxt.ru или advego.ru. Программа «StudentHelp» работает по уникальной технологии и при повышении уникальности не вставляет в текст скрытых символов, и даже если препод скопирует текст в блокнот – не увидит ни каких отличий от текста в Word файле.

Результат поиска


Наименование:


Реферат Классификация взаимосвязи явлений, различаемых в статистике, их разновидности и характеристика, отличительные признаки. Сущность коэффициента парной корреляции, его особенности и методика оценки достоверности, применение доверительных интервалов.

Информация:

Тип работы: Реферат. Предмет: Математика. Добавлен: 30.04.2009. Сдан: 2009. Уникальность по antiplagiat.ru: --.

Описание (план):


24
Содержание

    1. Виды и формы связей, различаемые в статистике 3
    2. Оценка достоверности коэффициента корреляции 6
    3. Доверительные интервалы для оценки 16
    Список литературы 24

1. Виды и формы связей, различаемые в статистике

Современная наука об обществе объясняет суть явлений через изучение взаимосвязей явлений. Объем продукции предприятия связан с численностью работников, стоимостью основных фондов и т.д.

Различают два типа взаимосвязей между различными явлениями и их признаками: функциональную или жестко детерминированную и статистическую или стохастически детерминированную.

Функциональная связь - это вид причинной зависимости, при которой определенному значению факторного признака соответствует одно или несколько точно заданных значений результативного признака. Например, при у = Цx - связь между у и х является строго функциональной, но значению х = 4 соответствует не одно, а два значения y1 = +2; y2= -2.

Стохастическая связь - это вид причинной зависимости, проявляющейся не в каждом отдельном случае, а в общем, в среднем, при большом числе наблюдений. Например, изучается зависимость роста детей от роста родителей. В семьях, где родители более высокого роста, дети в среднем ниже, чем родители. И, наоборот, в семьях, где родители ниже ростом, дети в среднем выше, чем родители. Еще один пример: потребление продуктов питания пенсионеров зависит от душевого дохода: чем выше доход, тем больше потребление. Однако такого рода зависимости проявляются лишь при большом числе наблюдений.

Корреляционная связь - это зависимость среднего значения результативного признака от изменения факторного признака; в то время как каждому отдельному значению факторного признака Х может соответствовать множество различных значений результативного (Y).

Задачами корреляционного анализа являются:

1) изучение степени тесноты связи 2 и более явлений;

2) отбор факторов, оказывающих наиболее существенное влияние на результативный признак;

3) выявление неизвестных причинных связей. Исследование корреляционных зависимостей включает ряд этапов:

1) предварительный анализ свойств совокупности;

2) установление факта наличия связи, определение ее направления и формы;

3) измерение степени тесноты связи между признаками;

4) построение регрессионной модели, т.е. нахождение аналитического выражения связи;

5) оценку адекватности модели, ее экономическую интерпретацию и практическое использование.

Корреляционная связь между признаками может возникать различными путями. Важнейший путь - причинная зависимость результативного признака (его вариации) от вариации факторного признака. Например, Х - балл оценки плодородия почв, Y - урожайность сельскохозяйственной культуры. Здесь ясно, какой признак выступает как независимая переменная (фактор), а какой как зависимая переменная (результат).

Очень важно понимать суть изучаемой связи, поскольку корреляционная связь может возникнуть между двумя следствиями общей причины. Здесь можно привести множество примеров. Так, классическим является пример, приведенный известным статистиком начала XX в. А.А. Чупровым. Если в качестве признака Х взять число пожарных команд в городе, а за признак Y - сумму убытков в городе от пожаров, то между признаками Х и Y в городах обнаружится значительная прямая корреляция. В среднем, чем больше пожарников в городе, тем больше убытков от пожаров. В чем же дело? Данную корреляцию нельзя интерпретировать как связь причины и следствия, оба признака - следствия общей причины - размера города. В крупных городах больше пожарных частей, но больше и пожаров, и убытков от них за год, чем в мелких.

Современный пример. Сразу после 17 августа 1998 г. резко возросли цена валюты и объем покупки валюты частными лицами. Здесь также нельзя рассматривать эти два явления как причину и следствие. Общая причина - обострение финансового кризиса, приведшее к росту курсовой стоимости валюты и стремлению населения сохранить свои накопления в твердой валюте. Такого рода корреляцию называют ложной корреляцией.

Корреляция возникает и в случае, когда каждый из признаков и причина, и следствие. Например, при сдельной оплате труда существует корреляция между производительностью труда и заработком. С одной стороны, чем выше производительность труда, тем выше заработок. С другой - высокий заработок сам по себе является стимулирующим фактором, заставляющим работника трудиться более интенсивно.

По направлению выделяют связь прямую и обратную, по аналитическому выражению - прямолинейную и нелинейную.

В начальной стадии анализа статистических данных не всегда требуются количественные оценки, достаточно лишь определить направление и характер связи, выявить форму воздействия одних факторов на другие. Для этих целей применяются методы приведения параллельных данных, аналитических группировок и графический.

Метод приведения параллельных данных основан на сопоставлении 2 или нескольких рядов статистических величин. Такое сопоставление позволяет установить наличие связи и получить представление о ее характере. Сравним изменения двух величин (табл. 1).

Таблица 1

Х
1
2
3
4
5
6
7
8
9
Y
5
9
6
10
12
17
15
20
23

С увеличением Х возрастает и Y, поэтому связь между ними можно описать уравнением прямой.

Метод аналитических группировок характеризует влияние качественного признака на относительные средние величины, на показатели вариации количественных признаков. В качестве группировочного признака выбирается факторный. В таблице размещают средние значения одного или нескольких результативных признаков. Изменения факторного признака при переходе от одной группы к другой вызывают соответствующие изменения результативного признака (табл. 2).

Оборачиваемость в днях - факторный признак, обозначаемый обычно X, а прибыль - результативный - Y. Табл. 9.2 ясно демонстрирует присутствие связи между признаками, это - отрицательная связь. Судить о том, линейная она или нет, по этим данным сложно.

Таблица 2. Характеристика зависимости прибыли малых предприятий от оборачиваемости оборотных средств на 1998 г.

Продолжительность оборота средств, дн. (Х)
Число малых предприятий
Средняя прибыль, млн. руб. (Y)
40-50
6
14,57
51-70
8
12,95
71-101
6
7,40
Итого
20
11,77

2. Оценка достоверности коэффициента корреляции

Коэффициент парной корреляции, исчисленный по выборочным данным, является случайной величиной. С уменьшением числа наблюдений надежность коэффициента корреляции падает. С увеличением числа наблюдений (свыше 500) распределение коэффициента корреляции r (не превышающее 0,9) стремится к нормальному.

Полученный из выборки коэффициент корреляции r является оценкой коэффициента корреляции с в генеральной совокупности.

По общему правилу проверки статистических гипотез:

- если tнабл Ј tкр, нулевую гипотезу о том, что между Х и Y отсутствует корреляционная связь 0: r = 0), нельзя отклонить на заданном уровне значимости а;

- если tнабл< tкр, нулевая гипотеза отклоняется в пользу альтернативной о том, что коэффициент корреляции значимо отличается от нуля 1: r№0), т.е. о наличии линейной корреляционной зависимости между Х и Y.

Критерий tрасч подчиняется закону распределения Стьюдента с п - 2 степенями свободы.

При малом числе наблюдений в выборке и высоком коэффициенте корреляции (распределение r отличается от нормального) для проверки гипотезы о наличии корреляционной связи, а также при построения доверительного интервала применяется z-преобразование Фишера.

При выявлении статистической зависимости по данным аналитической группировки в качестве меры степени тесноты связи может быть использовано эмпирическое корреляционное отношение (hэмп)

Чем ближе hэмп к 1, тем теснее связь между переменными Х и Y, тем больше колеблемость Y объясняется колеблемостью X.

Квадрат эмпирического корреляционного отношения (h2эмп) называют коэффициентом детерминации. Он показывает, какая часть Y колеблемости объясняется колеблемостью X.

В случае линейной регрессионной зависимости r = hтеор. Если связь - нелинейная, h < hтеор. Это позволяет использовать hтеор в качестве меры линейности связи между переменными X и Y. Если линейный коэффициент корреляции Пирсона (r) мало отличается от теоретического корреляционного отношения (hтеор), т.е. r» hтеор, то зависимость между переменными близка к линейной. В противном случае имеет, место нелинейная зависимость между X и Y.

В уравнении парной регрессии - 2 параметра: b0 и b1, т.е. т = 2.

Критическое значение F определяется по таблицам распределения Фишера по уровню значимости б и числу степеней свободы.

Наблюдаемое значение (Fнабл) необходимо сравнить с критическим (Fкр). По общему правилу проверки статистических гипотез:

- если Fнабл Ј Fкр, нулевую гипотезу (H1:h = 0) о том, что h незначим, нельзя отклонить;

- если Fнабл > Fкр нулевая гипотеза отклоняется в пользу альтернативной (H1:h № 0) о том, что h значимо отличается от нуля.

Если п объектов какой-либо совокупности N пронумерованы в соответствии с возрастанием или убыванием какого-либо признака X, то говорят, что объекты ранжированы по этому признаку. Ранг xi, указывает место, которое занимает i-й объект среди других n объектов, расположенных в соответствии с признаком Х (i= 1,2,. п). Например, при исследовании рынка мы можем задать вопрос с целью выяснения предпочтений потребителей при выборе товара (при покупке акций, мороженого, водки и т.п.) таким образом, чтобы они распределили товар в порядке возрастания (или убывания) своих потребительских предпочтений. Если мы имеем 2 набора ранжированных данных, то можно попытаться установить степень линейной зависимости между ними. Предположим, имеется 5 продуктов, расположенных по порядку предпочтений от 1 до 5 в соответствии с двумя характеристиками А и В (табл. 3).

Таблица 3

Характеристики для ранжирования
Продукт
V
W
X
Y
Z
А
2
5
1
3
4
B
1
3
2
4
5

Для определения наличия взаимосвязи между ранговыми оценками используется коэффициент ранговой корреляции Спирмена. Его расчет основан на различии между рангами:

D = Ранг А - Ранг В.

Альтернативные признаки - это признаки, принимающие только два возможных значения. Исследование их корреляции основано на показателях, построенных на четырехклеточных таблицах, в которых сводятся значения признаков:

а
в
с
d

Например, требуется измерить связь между прививками от гриппа и пониженной заболеваемостью от гриппа в группе случайно отобранных студентов (табл. 4).

Таблица 4

Заболели
Не заболели
Итого
Привитые
30
20
50
Непривитые
15
5
20
Всего
45
25
70

Изучение степени тесноты взаимосвязи между признаками было проведено с помощью корреляционного анализа (расчета различных мер связи).

Уточнение формы связи, нахождение ее аналитического выражения производится путем построения уравнения связи (уравнения регрессии).

Регрессия - это односторонняя статистическая зависимость.

Уравнение регрессии позволяет определить, каким в среднем будет значение результативного признака (Y) при том или ином значении факторного признака (X), если остальные факторы, влияющие на Y и не связанные с X, рассматривались неизменными (т.е. мы абстрагировались от них).

К задачам регрессионного анализа относятся:

1) установление формы зависимости;

2) определение функции регрессии;

3) оценка неизвестных значений зависимой переменной.

По аналитическому выражению различают прямолинейную и криволинейную связи.

Прямолинейная связь имеет место, когда с возрастанием (или убыванием) значений Х значения Y увеличиваются (или уменьшаются) более или менее равномерно.

В этом случае уравнение связи записывается так:

`yх = b0 + b1х.

Криволинейная форма связи может выражаться различными кривыми, из которых простейшими являются:

1) парабола второго порядка

`yх = b0 + b1х +b2х2;

2) гипербола

`yx =b0+b1 /x;

3) показательная

`yx = b0b1x;

либо в логарифмическом виде

ln`yx = lnb0 + xlnb1.

После определения формы связи, т.е. вида уравнения регрессии, по эмпирическим данным определяют параметры искомого уравнения.

При этом отыскиваемые параметры должны быть такими, чтобы рассчитанные по уравнению теоретические значения результативного признака максимально приближались к эмпирическим данным.

Чаще всего определение параметров уравнения регрессии осуществляется с помощью метода наименьших квадратов, в котором предполагается, что сумма квадратов отклонений теоретических значений от эмпирических должна быть минимальной,

В зависимости от формы связи в каждом конкретном случае определяется своя система уравнений, удовлетворяющая принципу минимизации.

Предположение о парной линейной зависимости между Х и Y можно описать функцией

Y = b0 + b1Х + и,

где b0, b1 - истинные значения параметров уравнения регрессии в генеральной совокупности; и - случайная составляющая.

Существует несколько причин возникновения случайной составляющей:

1) невключение объясняющих переменных в уравнение регрессии;

2) агрегирование объясняющих переменных, включенных в уравнение регрессии;

3) неправильное описание структуры модели, т.е. неверный выбор объясняющих переменных;

4) неправильная функциональная спецификация модели. Например, для моделирования использована линейная функция, в то время как зависимость между переменными - нелинейная;

5) ошибки наблюдения (ошибки данных).

По выборочным данным определяются оценки истинных (в случае правильной спецификации модели) параметров уравнения регрессии и случайной составляющей

`yx=b0+b1х+e

где b0, b1, е - оценки неизвестных b0, b1, и. В случае парной линейной зависимости вида

`yx=b0+b1х

В настоящее время необходимость в ручных расчетах отпала, так как существует множество компьютерных программ, реализующих методы регрессионного анализа. Важно понимать смысл параметров и уметь их адекватно интерпретировать.

На основе уравнений регрессии часто рассчитывают коэффициенты эластичности результативного признака относительно факторного.

Коэффициент эластичности (Э) показывает, на сколько процентов в среднем изменится результативный признак Y при изменении факторного признака Х на 1%.

Рассмотрим методы регрессионного и корреляционного анализов. Предположим, что нас интересует выручка от продажи баночного пива в магазинах города в течение дня. Мы прове и т.д.................


Перейти к полному тексту работы



Смотреть похожие работы


* Примечание. Уникальность работы указана на дату публикации, текущее значение может отличаться от указанного.