На бирже курсовых и дипломных проектов можно найти образцы готовых работ или получить помощь в написании уникальных курсовых работ, дипломов, лабораторных работ, контрольных работ, диссертаций, рефератов. Так же вы мажете самостоятельно повысить уникальность своей работы для прохождения проверки на плагиат всего за несколько минут.

ЛИЧНЫЙ КАБИНЕТ 

 

Здравствуйте гость!

 

Логин:

Пароль:

 

Запомнить

 

 

Забыли пароль? Регистрация

Повышение уникальности

Предлагаем нашим посетителям воспользоваться бесплатным программным обеспечением «StudentHelp», которое позволит вам всего за несколько минут, выполнить повышение уникальности любого файла в формате MS Word. После такого повышения уникальности, ваша работа легко пройдете проверку в системах антиплагиат вуз, antiplagiat.ru, etxt.ru или advego.ru. Программа «StudentHelp» работает по уникальной технологии и при повышении уникальности не вставляет в текст скрытых символов, и даже если препод скопирует текст в блокнот – не увидит ни каких отличий от текста в Word файле.

Результат поиска


Наименование:


реферат Парная нелинейная корреляционная зависимость в исследованиях экономических вопросов

Информация:

Тип работы: реферат. Добавлен: 18.09.2012. Сдан: 2011. Страниц: 15. Уникальность по antiplagiat.ru: < 30%

Описание (план):


Институт  Экономики и Антикризисного управления
Кафедра Экономики и управления 
 
 
 
 

                                      Реферат
       По  дисциплине «Статистика»
       Тема: «Парная нелинейная корреляционная зависимость в исследованиях экономических вопросов» 
 
 
 
 
 
 
 

Москва
2010
 

     Содержание
    Введение………………………………………………………………………………….4
    Нелинейная корреляция……………………………………………………………….6
    Нелинейная корреляции для множественного уравнения регрессии..…….……10
    Парная регрессия и корреляция………………………………………………….…..12
    Оценка значимости уравнения регрессии…………………………………………...16
    Оценка качества модели……………………………………………………………….18
    Интервальная оценка функции регрессии и её параметров………………...…....21
    Метод наименьших квадратов…………………………………………………….….24
    Заключение……………………………………………………………………………....29
    Список Литературы…………………………………………………………….….…..30
     
      Введение.
    Величины, характеризующие различные свойства объектов, могут быть независимыми или взаимосвязанными. Различают  два вида зависимостей между величинами (факторами): функциональную и статистическую.
    При функциональной зависимости двух величин значению одной из них обязательно соответствует одно или несколько точно определенных значений другой величины. Функциональная связь двух факторов возможна лишь при условии, что вторая величина зависит только от первой и не зависит ни от каких других величин. Функциональная связь одной величины с множеством других возможна, если эта величина зависит только от этого множества факторов. В реальных ситуациях существует бесконечно большое количество свойств самого объекта и внешней среды, влияющих друг на друга, поэтому такого рода связи не существуют, иначе говоря, функциональные связи являются математическими абстракциями. Их применение допустимо тогда, когда соответствующая величина в основном зависит от соответствующих факторов.
    При исследовании многие параметры следует считать случайными, что исключает проявление однозначного соответствия значений. Воздействие общих факторов, наличие объективных закономерностей в поведении объектов приводят лишь к проявлению статистической зависимости. Статистической называют зависимость, при которой изменение одной из величин влечет изменение распределения других (другой), и эти другие величины принимают некоторые значения с определенными вероятностями. Функциональную зависимость в таком случае следует считать частным случаем статистической: значению одного фактора соответствуют значения других факторов с вероятностью, равной единице. Однако на практике такое рассмотрение функциональной связи применения не нашло.
    Более важным частным случаем статистической зависимости является корреляционная зависимость, характеризующая взаимосвязь значений одних случайных величин со средним значением других, хотя в каждом отдельном случае любая взаимосвязанная величина может принимать различные значения.
    Если  же у взаимосвязанных величин вариацию имеет только одна переменная, а другая является детерминированной, то такую связь называют не корреляционной, а регрессионной. Например, при анализе скорости обмена с жесткими дисками можно оценивать регрессию этой характеристики на определенные модели, но не следует говорить о корреляции между моделью и скоростью.
    При исследовании зависимости между  одной величиной и такими характеристиками другой, как, например, моменты старших  порядков (а не среднее значение), то эта связь будет называться статистической, а не корреляционной.
    Корреляционная  связь описывает следующие виды зависимостей:
причинную зависимость между значениями параметров, "зависимость" между следствиями  общей причины.
    Корреляционная  зависимость определяется различными параметрами, среди которых наибольшее распространение получили показатели, характеризующие взаимосвязь двух случайных величин (парные показатели): корреляционный момент, коэффициент корреляции.
    Одной из типовых задач обработки статистических данных является определение количественной зависимости показателей качества объекта от значений его параметров и характеристик внешней среды. Примером такой постановки задачи является установление зависимости между временем обработки запросов к базе данных и интенсивностью входного потока. Время обработки зависит от многих факторов, в том числе от размещения искомой информации на внешних носителях, сложности запроса. Следовательно, время обработки конкретного запроса можно считать случайной величиной.
Но вместе с  тем, при увеличении интенсивности потока запросов следует ожидать возрастания его среднего значения, т.е. считать, что время обработки и интенсивность потока запросов связаны корреляционной зависимостью.
 

   

      Нелинейная  корреляция.
 
1. Нелинейная корреляция  для парного уравнения регрессии.
       Уравнение нелинейной регрессии, как  и в линейной зависимости, дополняется  показателем корреляции, а именно индексом корреляции: 

где     

       Так как 
то индекс корреляции можно выразить как 
       Величина данного показателя находится в границах: 0?R?1, чем ближе к единице, тем теснее связь рассматриваемых признаков, тем более надежно найденное уравнение регрессии.
      Если  нелинейное относительно объясняемой  переменной уравнение регрессии  при линеаризации принимает форму  линейного уравнения парной регрессии, то для оценки тесноты связи может быть использован линейный коэффициент корреляции, величина которого в этом случае совпадает с индексом корреляции Rху= rуz, где z – преобразованная величина признака-фактора, например, z = 1/x  или  z = ln x.
       Обратимся для примера к равносторонней гиперболе  y = a + b/x. Заменив 1/x на z, имеем линейное уравнение y = a + bx, для которого может быть определен линейный коэффициент корреляции:   r = b? sz /sy . Возводя данное выражение в квадрат, получим:
       Преобразовывая далее, придем к следующему выражению для  

                        
      следовательно,
                                   
           Но так как         
 и   , то
                               
           Таким образом, приходим к формуле  индекса корреляции
                          
           Заменив далее z на 1/х, получим , соответственно . Аналогично для других функций подобного вида, в которых образования в линейный вид не затрагивают зависимую переменную, и требование МНК выполнимо.
           Иначе обстоит дело, когда преобразования уравнения в линейную форму связаны с зависимой переменной. В этом случае линейный коэффициент корреляции по преобразованным значениям признаков дает лишь приближенную оценку тесноты связи и численно не совпадает с индексом корреляции.
      Например, степенная функция после перехода к логарифмически линейному уравнению может быть найден линейный коэффициент корреляции не для фактических значений х и у, а для их логарифмов, то есть . Соответственно квадрат его значения будет характеризовать отношение факторной суммы квадратов отклонений к общей, но не для у, а для его логарифмов:
                   
      Между тем при расчете индекса корреляции корреляции используются суммы квадратов отклонений признака у, а не их логарифмов. С этой целью определяются теоретические значения результативного признака, то есть у, как антилогарифм рассчитанной по уравнению величины lny и остаточная сумма квадратов как . Индекс корреляции определяется по формуле
                       
      В знаменателе расчета    участвует сумма квадратов отклонений  фактических значений у от их средней величины, а в расчете    участвует  . Соответственно различаются числители рассматриваемых показателей:
       - в индексе корреляции и   - в коэффициенте корреляции.
      Необходимо  также помнить, что если при линейной зависимости признаков сопряженные регрессии имеют один и тот же коэффициент корреляции, то есть , то при криволинейной зависимости они не равны, то есть    .
      Так как в расчете индекса корреляции используется соотношение факторной и общей суммы квадратов отклонений, то R2 имеет тот же смысл, что и коэффициент детерминации. В специальных исследованиях величину R2 для нелинейных связей называют индексом детерминации.
      Оценка  существенности индекса корреляции проводится, так же как и оценка надежности коэффициента корреляции. Индекс детерминации используется для проверки существенности в целом уравнения линейной регрессии по F –критерию Фишера:
                        ,
 где  n- число наблюдений, m – число параметров при переменной х. Величина m характеризует число степеней свободы для факторной суммы квадратов, а (n-m-1) – число степеней свободы для остаточной суммы квадратов.
      Индекс  детерминации можно сравнивать с коэффициентом детерминации для обоснования возможности применения линейной функции. Чем больше кривизна линии регрессии, тем величина коэффициента детерминации меньше индекса детерминации . Близость иx означает, что нет необходимости усложнять форму уравнения регрессии и можно использовать линейную функцию. Если , то предположение о линейной форме связи считается оправданным. В противном случае проводится оценка существенности различия и , вычисленных по одним и тем же исходным данным через t-критерий Стьюдента:
       ,  где  - ошибка разности между и .
      
      Если  tф > tт, то различия между рассматриваемыми показателями корреляции существенны и замена нелинейной регрессии уравнением линейной функции невозможна. Если t < 2, то различия несущественны и, следовательно, возможно применение линейной регрессии. 
 

 

       Нелинейная корреляции для множественного уравнения регрессии.
      Для криволинейной зависимости, нелинейной по переменным индекс множественной  корреляции равен совокупному коэффициенту корреляции.
      Например, если для фирмы модель прибыли  у имеет вид
      У = a + b1x1 + b2x2 + b3lnx3 + b4lnx4
      где  х1 – удельные расходы на рекламу;
             х2 – капитал фирмы;
             х3 – доля продукции фирмы в общем объеме продаж данной группы товаров по региону;
             х4 – процент увеличения объема продаж фирмы по сравнению с предыдущим годом.    
      Тогда независимо от того, что фактор х1 задан линейно, а х2, х3, х4 – в логарифмах, оценка тесноты связи может быть произведена с помощью линейного коэффициента множественной корреляции.
      Иначе обстоит дело с криволинейной  регрессией, нелинейной по оцениваемым параметрам. Предположим, что рассматривается производственная функция Кобба-Дугласа:
       , где P- объем продукции, L – затраты труда, К – величина капитала, b1+b2=1.
      Логарифмируя  ее, получим линейное уравнение в логарифмах
      Ln P = lna + b1lnL + b2lnK
      Индекс  детерминации для нелинейных по оцениваемым  параметрам функции принять называть «квази R2» определения по функциям, использующим логарифмические преобразования (степенная, экспонента), необходимо найти сначала теоретические значения ln y, затем трансформировать их через антилогарифмы, то есть найти теоретические значения результативного признака и далее определять индекс детерминации как «квази R2» по формуле
      
      Величина  индекса множественной корреляции, определенная как «квази R2» не будет совпадать с совокупным коэффициентом корреляции.
      Для того, чтобы не допустить возможного преувеличения тесноты связи, используется скорректированный индекс (коэффициент) множественной корреляции. Он содержит поправку на число степеней свободы и рассчитывается по формуле
       , где n – число наблюдений, m – число факторов.
      Чем больше величина m, тем сильнее различия между .
      Для линейной зависимость признаков скорректированный коэффициент корреляции определяется по той же формуле, что и индекс множественной корреляции. Отличие заключается лишь в том, что в линейной зависимости под m понимается число факторов, включенных в анализ, а в криволинейной зависимости это число параметров при х. Например, если y=f(x1,x2), то для линейной зависимости m = 2, а для регрессии вида
           у = a + b1x12+b12x1 + b2x2 +b22x22
число параметров при х = 4, то есть m = 4. 

 

     4. Парная регрессия и корреляция 

    В математике мы привыкли к тому, что речь идет о функциональной зависимости, когда каждому значению одной переменной соответствует вполне определенное значение другой.
    В экономике в большинстве случаев, между переменными величинами существуют зависимости, когда каждому значению одной переменной соответствует не какое-то определенное, а множество возможных значений другой переменной (или определенное условное распределение другой переменной). Такая зависимость получила название статистической, вероятностной.
    Возникновение такой связи обусловлено тем, что зависимая переменная подвержена влиянию неконтролируемых или неучтенных факторов, а также случайными ошибками.
    В силу неоднозначности статистической зависимости между  и , представляет интерес усредненная по схема зависимости, т.е. закономерность в измерении условного математического ожидания (математическое ожидание случайной переменной , вычисленного в предположении, что переменная приняла значение ) в зависимости .
       - независимая переменная, объясняющая, входная, предсказывающая,       экзогенная, фактор, регрессор, факторный признак.
       - зависимая переменная, функция отклика, объясняемая, выходная, результирующая, эндогенная переменная, результативный признак.
    Нас интересует односторонняя зависимость  случайной переменной от независимой переменной .
    

    Определение: Когда каждому значению одной переменной соответствует определенное условное математическое ожидание (среднее значение) другой, то такая зависимость называется корреляционной.
    Иначе, корреляционной зависимостью между  двумя переменными называется функциональная зависимость между значениями одной  и средним значением другой (условным математическим ожиданием),
                                                                                                             (1)
    это уравнение называется модельным уравнением регрессии (или просто уравнением регрессии, или функцией регрессии, а её график – линией регрессии).
    Для точного описания уравнения регрессии необходимо знать условный закон распределения переменной при условии, что переменная примет значение , .
    В статистической практике такой информации получить не удается, т.к. обычно имеется выборка пар значений объема .
    В этом случае речь может идти о приближенном выражении, аппроксимации по выборке функции регрессии. Такой оценкой является выборочная линия (кривая) регрессии
    

     - условная средняя переменной  при фиксированном значении ,
     - параметры кривой.
    При   должна сходиться по вероятности к функции регрессии .                           
    Таким образом, эконометрическая модель имеет  вид:
                                                                      
    где - наблюдаемое значение зависимой переменной,
     - объясненная часть, зависящая  от значений объясняющих переменных,
     - случайная составляющая.
    В многомерном случае, когда х –  вектор, , где - могут считаться как случайными, так и детерминированными.
    
.

    Итак, чтобы получить достаточно достоверные  и информативные данные о распределении  какой-либо случайной величины, необходимо иметь выборку её наблюдений достаточно большого объема. Такие выборки представляют собой наборы значений  - число наблюдений, - количество объясняющих переменных.
    Рассмотрим  .
    Парная  регрессия – уравнение связи  двух переменных .
    Определение. Любое эконометрическое исследование начинается со спецификации модели, т.е. с формулировки (выбора) вида модели, исходя из соответствующей теории связи между переменными.
    Различают линейные и нелинейные регрессии. Нелинейные регрессии делят на два класса: регрессии, нелинейные относительно включенных объясняющих переменных, но линейных по оцениваемым параметрам, и, регрессии, нелинейные по оцениваемым параметрам.
    Линейная:  .
    Нелинейные  по объясняющим параметрам:
                                                                 
    Регрессии, нелинейные по оцениваемым параметрам: 
                                Степенная:
                                Показательная: 
                                Экспоненциальная: 
                                Логарифмическая: 
                                Полулогарифмическая: 
                                                                        
                                Обратная:                   
    Если  у нас есть набор значений двух переменных и   то на плоскости эти значения можно отобразить точками, таким образом получаем поле корреляции, которое изображено на рис. 1.   
    
                 Рис.1. Поле корреляции 

    Предположим, что нашей задачей является подобрать (подогнать) функцию  из параметрического семейства функций , наилучшим способом описывающую зависимость y от x.
    Подобрать функцию – это два шага:
    1 шаг: спецификация модели
    2 шаг: выбрать наилучшие значения параметров и .
    В качестве меры отклонения функции  от набора наблюдений можно взять:
    1.
    2. 
    3.  в общем случае:  , где - мера, с которой отклонение входит в функционал .
     Примером такой меры может служить  функция Хубера, которая при малых  отклонениях квадратична, а при больших линейна: 

      
 

    Наиболее  употребительной является функция g вида 1. 

 

     5. Оценка значимости уравнения регрессии 

    Проверить значимость уравнения регрессии - значит установить, соответствует ли математическая модель, выражающая зависимость между переменными, экспериментальным данным и достаточно ли включенных в уравнение объясняющих переменных (одной или нескольких) для описания зависимой переменной.
    Проверка  значимости уравнения регрессии  производится на основе дисперсионного анализа.
    Обозначим через  - теоретически вычисляемые по формуле значения, тогда
    

    Преобразуем формулу дисперсии с учетом вышеуказанной  суммы:
     Далее
    
    Так как имеет место равенство ,
    и из МНК следуют два соотношения  ,   
    то    
       (*)
    Введем  обозначения:
    TSS (total sum of sguares) – вся дисперсия:  сумма квадратов отклонений от среднего.
    RSS (regression sum of sguares) – объясненная часть всей дисперсии (обусловленная
                                                            регрессией), факторная, объясненная  дисперсия.
    ESS (error sum of sguares) – остаточная сумма, дисперсия остаточная.
    Определение. Коэффициентом детерминации, или долей объясненной дисперсии
                              называется 
    
.

    В силу определения  .
    Если  , то это означает, что регрессия ничего не дает, т.е. не улучшает качество предсказания , по сравнению с тривиальным .
    Если  , то лежат на линии регрессии и между и y существует линейная функциональная зависимость, т.е. абсолютно точное совпадение: .
    Для линейной регрессии определяется коэффициент  регрессии по формуле:
                                             или     . 
 
 
 

    Тогда
     - получившаяся формула есть  дисперсия объясненная, факторная,  тогда  ; 

отсюда, можно построить коэффициент (индекс корреляции ) для нелинейной регрессии
    
.

    Т.к. формулы для связи TSS, RSS, ESS мы получили в предположении что , то при , полученная формула не будет справедливой. 

 

     6. Оценка качества модели 

    Оценку  качества построенной модели можно  определить через коэффициент (индекс) детерминации, а также с помощью средней ошибки аппроксимации.
    Средняя ошибка аппроксимации - среднее отклонение расчетных значений от фактических  в процентах:
    
.

    Предел  значений считаем допустимым при построении модели.
    Средний коэффициент эластичночти показывает, на сколько %  в среднем по совокупности изменится результат от своей средней величины при изменении фактора на 1% от своего среднего значения
    

     - характеризует соотношение  прироста результата и фактора  для соответствующей формы связи.
    Т.к., коэффициент Э не всегда const, то используем среднее значение - .
    В таблице представлены формулы эластичности для наиболее употребительных функций.
                       y                                                    

и т.д.................


Перейти к полному тексту работы


Скачать работу с онлайн повышением уникальности до 90% по antiplagiat.ru, etxt.ru или advego.ru


Смотреть полный текст работы бесплатно


Смотреть похожие работы


* Примечание. Уникальность работы указана на дату публикации, текущее значение может отличаться от указанного.