На бирже курсовых и дипломных проектов можно найти образцы готовых работ или получить помощь в написании уникальных курсовых работ, дипломов, лабораторных работ, контрольных работ, диссертаций, рефератов. Так же вы мажете самостоятельно повысить уникальность своей работы для прохождения проверки на плагиат всего за несколько минут.

ЛИЧНЫЙ КАБИНЕТ 

 

Здравствуйте гость!

 

Логин:

Пароль:

 

Запомнить

 

 

Забыли пароль? Регистрация

Повышение уникальности

Предлагаем нашим посетителям воспользоваться бесплатным программным обеспечением «StudentHelp», которое позволит вам всего за несколько минут, выполнить повышение уникальности любого файла в формате MS Word. После такого повышения уникальности, ваша работа легко пройдете проверку в системах антиплагиат вуз, antiplagiat.ru, etxt.ru или advego.ru. Программа «StudentHelp» работает по уникальной технологии и при повышении уникальности не вставляет в текст скрытых символов, и даже если препод скопирует текст в блокнот – не увидит ни каких отличий от текста в Word файле.

Результат поиска


Наименование:


Курсовик Зародження основних понять теорї ймоврностей. Розподл ймоврностей Фшера-Снедекора, Пуассона та Стьюдента, їх характеристика та приклади. Емпрична функця розподлу. Точечний та нтервальний пдходи до оцнювання невдомих параметрв розподлв.

Информация:

Тип работы: Курсовик. Предмет: Математика. Добавлен: 30.04.2009. Сдан: 2009. Уникальность по antiplagiat.ru: --.

Описание (план):


3
Зміст
Вступ
1. Види розподілу ймовірностей
1.1 Біноміальний розподіл
1.2 Розподіл Х?
1.3 Розподіл Стьюдента
1.4 Розподіл F Фишера-Снедекора
2. Емпірична функція розподілу
3. Точечні та інтервальні оцінки параметрів розподілу
3.1 Точечна оцінка параметрів розподілу
3.2 Поняття інтервальної оцінки. Інтервальні оцінки параметрів нормального розподілу
4. Розподіл Пуассона
Висновок
Список літератури
Вступ

Предмет теорії ймовірностей. Події, що спостерігаються нами, (явища) можна підрозділити на наступні три види: достовірні, неможливі і випадкові.
Достовірним називають подія, що обов'язково відбудеться, якщо буде здійснена визначена сукупність умов S.
Наприклад, якщо в судині міститься вода при нормальному атмосферному тиску і температурі 20?, то подія "вода в судині знаходиться в рідкому стані" є достовірне. У цьому прикладі задані атмосферний тиск і температура води складають сукупність умов S.
Неможливим називають подія, що свідомо не відбудеться, якщо буде здійснена сукупність умов S.
Наприклад, подія "вода в судині знаходиться у твердому стані свідомо не відбудеться, якщо буде здійснена сукупність умов попереднього приклада.
Випадковим називають подію, що при здійсненні сукупності умов S може або відбутися, або не відбутися.
Наприклад, якщо кинута монета, то вона може упасти так, що зверху буде або герб, або напис. Тому подія "при киданні монети випав герб" - випадкове.
Кожна випадкова подія, зокрема - випадання герба, є наслідок дії дуже багатьох випадкових причин (у нашому прикладі: сила, з яким кинута монета, форма монети і багато хто інші). Неможливо врахувати вплив на результат усіх цих причин, оскільки число їхній дуже велике і закони їхньої дії невідомі. Тому теорія ймовірностей не ставить перед собою задачу пророчити, відбудеться одинична подія чи ні, - вона просто не в силах це зробити.
По-іншому обстоїть справа, якщо розглядаються випадкові події, щ о можуть багаторазово спостерігатися при здійсненні тих самих умов S, тобто якщо мова йде про масові однорідні випадкові події. Виявляється, що досить велике число однорідних випадкових подій, незалежно від їхньої конкретної природи, підкоряється визначеним закономірностям, а саме - вероятнісним закономірностям. Установленням цих закономірностей і займається теорія ймовірностей
Коротка історична довідка. Перші роботи, у яких зароджувалися основні поняття теорії ймовірностей, являли собою спроби створення теорії азартних ігор (Кардано, Гюйгенс, Паскаль, Ферма й ін. у XVI-XVII ст.).
Наступний етап розвитку теорії ймовірностей зв'язаний з ім'ям Якова Бернуллі (1654-1705). Доведена ним теорема, що одержала згод ом назву "Закону великих чисел", була першим теоретичним обґрунтуванням накопичених раніше фактів.
Подальшими успіхами теорія ймовірностей зобов'язана Муавру, Лапласові, Гауссу, Пуассонові та ін.
Новий, найбільш плідний, період зв'язаний з іменами П.Л. Чебишева (1821-1894) і його учнів А.А. Маркова (1856-1922) і А.М. Ляпунова (1857-1918). У цей період теорія ймовірностей стає стрункою математичною наукою, її наступний розвиток зобов'язаний, у першу чергу, російським і радянським математикам (С.Н. Бернштейн, В.І. Романовский, А.Н. Колмогоров, А.Я. Хінчин, Б.В. Гнеденко, Н.В. Смирнов і ін.). В даний час ведуча роль у створенні нових галузей теорії ймовірностей також належить радянським математикам.
??
1. Види розподілу ймовірностей

1.1 Біномінальний розподіл

Нехай виробляється п незалежних іспитів, у кожнім з який подія А може з'явитися, або не з'явитися. Імовірність настання події у всіх іспитах постійна і дорівнює р (отже, імовірність непояви q=l-p). Розглянемо в якості дискретної випадкової величини X число появ події А в цих іспитах.
Поставимо перед собою задачу: знайти закон розподілу величини X. Для її рішення потрібно визначити можливі значення X і їхньої імовірності.
Очевидно, подія А у п іспитах може або не з'явитися, або з'явитися 1 раз, або 2 рази,..., або п раз. Таким чином, можливі значення X такі:
Залишається знайти імовірності цих можливих значенні, для чого досить скористатися формулою Бернуллі:
(1.1)
де =0, 1, 2,..., п.
Формула (1.1) і є аналітичним вираженням шуканого закону розподілу. Біномінальним називають розподіл ймовірностей, обумовлений формулою Бернуллі.
Закон названий "біномінальним" тому, що праву частину рівності (1.1) можна розглядати як загальний член розкладання бінома Ньютона
(1.2)
Таким чином, перший член розкладання визначає імовірність настання розглянутої події п раз у п незалежних, іспитах; другий член визначає імовірність настання події п-1 раз;...; останній член визначає імовірність того, що подія не з'явиться жодного разу. Напишемо біномінальний закон у виді таблиці:
Приклад:
Монета кинута 2 рази. Написати у виді таблиці закон розподілу випадкової величини X - числа випадань герба.
Рішення:
Імовірність появи герба в кожнім киданні монети отже, імовірність не появи герба:
При двох киданнях монети герб може з'явитися або 2 рази, або 1 раз, або зо всім не з'явитися. Таким чином, можливі значення X такі:
Знайдемо імовірності цих можливих значенні по формулі Бернуллі:
Напишемо шуканий закон розподілу:
Контроль:
1.2 Розподіл Х?

Нехай (і=1,2,...,п)- нормальні незалежні випадкові величини, причому математичне чекання кожної з них дорівнює нулю, а середнє квадратичне відхилення - одиниці. Тоді сума квадратів цих величин
розподілена за законом Х? ("хи квадрат") з k=n ступенями волі; якщо ж ці величини зв'язані одним лінійним співвідношенням, наприклад , те число ступенів волі k=n-l. Диференціальна функція цього розподілу
Де - гамма-функція; зокрема
Звідси видно, що розподіл "хи квадрат" визначається одним параметром - числом ступенів волі k. Зі збільшенням числа ступенів волі розподіл повільний наближається до нормального.
1.3 Розподіл Стьюдента

Нехай Z - нормальна випадкова величина, причому M(Z)=0, cy(Z) - 1, а V - незалежна від Z величина, що розподілена за законом /2 з k ступенями волі.
Тоді величина
має розподіл, що називають t-розподілом, чи розподілом Стьюдента (псевдонім англійського статистика В. Госсета) з k ступенями волі.
Отже, відношення нормованої нормальної величини до квадратного кореня з незалежної випадкової величини, розподіленої за законом "хи квадрат" з k ступенями волі, діленої на k, розподілено за законом Стьюдента з k ступенями волі.
Зі зростанням числа ступенів волі розподіл Стьюдента швидко наближається до нормального. Додаткові зведення про цей розподіл приведені далі
1.4 Розподіл F Фішера-Снедекора

Якщо U і V незалежні випадкові величини, розподілені за законом х2 зі ступенями волі і , те величина
має розподіл, що називають розподілом F Фішера-Снедекора зі ступенями волі і (іноді його позначають через V?). Диференціальна функція
Ми бачимо, що розподіл F визначається двома параметрами - числами ступенів волі.
2. Емпірична функція розподілу
Нехай відомо статистичний розподіл частот кількісної ознаки X. Введемо значення п х -- число спостережень, менше х; п -- загальне число спостережень (об'єм вибірки). Ясно, що відносна частота події X <1 дорівнює n(x)/п. Якщо х змінюється, то, взагалі говорячи, змінюється і відносна частота, тобто відносна частота пх /п є функція від х. Тому що ця функція знаходиться емпіричним (досвідченим) шляхом, то її називають емпіричною.
Емпіричною функцією розподілу (функцією розподілу вибірки) називають функцію F*(x), що визначає для кожного значення х відносну частоту випадку X < х. '
Отже, по визначенню:
F(x)=nx/n
Де nx-число варіант, менших х; п -- об'єм вибірки. Таким чином, для того щоб знайти, наприклад, F*(xi), потрібно число варіант, менших хг, розділити на об'єм вибірки: F*(x2) = nx2/n.
На відміну від емпіричної функції розподілу вибірки функцію розподілу F (х) генеральної сукупності називають теоретичною функцією розподілу. Різниця між емпіричної і теоретичної функціями полягає в тому, що теоретична функція F (х) визначає імовірність події X < х, а емпірична функція F* (х) визначає відносну частоту події. З теореми Бернуллі випливає, що відносна частота події X < х, тобто F* (х) прагне по імовірності до імовірності F (х) цієї події. Іншими словами, при великих п числа F* (х) і F (х) мало відрізняються одне від іншого в тому змісті, що lim n-Р [ | F (х)- F* (х) | < е] = 1 (е > 0). Уже звідси випливає доцільність використання емпіричної функції розподілу вибірки для наближеного представлення теоретичної (інтегральної) функції розподілу генеральної сукупності.
Такий висновок підтверджується і тим, що F*(x) наділене усіма властивостями F (х). Дійсно, з визначення функції F* (х) випливають наступні її властивості: 1) значення емпіричної функції належать відрізку [О, 1];
2) F*(x) -- функція, що не спадає;
3) якщо Xi -- найменша варіанта, то F*(x) = Q при xx1; якщо xk--найбільша варіанта, то F* (х) = 1 при x> xk.
Отже, емпірична функція розподілу вибірки служить для оцінки теоретичної функції розподілу генеральної сукупності.
Приклад.
Побудувати емпіричну функцію по даному розподілу вибірки:
варіанти xi 2 6 10
частоти ni 12 18 30
Розв'язок. Знайдемо обсяг вибірки: 12 + 18 + 30 = 60. Найменша варіанта дорівнює 2, отже,
F*(x) = О при x2. І
Значення X < 6, а саме x1 = 2, спостерігалося 12 разів, отже,
:F*(x) = 12/60 = 0,2 при
2<x6. I
значення x<10, а саме x1 = 2 і х2 = 6, спостерігалися 12 + 18 = 30 разів, отже,
F* (х) = 30/60 = 0,5 при 6 < х 10. Тому що x=10 -- найбільша варіанта, то | F*(x)=1 при х > 10. Шукана емпірична функція
Графік цієї функції зображений на малюнку.
3. Точечні та інтервальні оцінки параметрів розподілу
3.1 Точечна оцінка параметрів розподілу

Є два підходи до оцінювання невідомих параметрів розподілів по спостереженнях: точечний і інтервальний. Точечний вказує лише точку, біля якої знаходиться оцінюваний параметр; при інтервальному знаходять інтервал, що з деякою великою ймовірністю, що задається дослідником, накриває невідоме числове значення параметра. У главі розглядаються методи точечного оцінювання параметрів; будуються інтервальні оцінки параметрів нормального розподілу, обговорюється загальний підхід до інтервального оцінювання параметрів розподілу, відмінних від нормального.
3.1.1 Метод моментів
Метод моментів є одним із методів точечного оцінювання параметрів розподілу.
Нехай закон розподілу випадкової величини X відомий із точністю до числових значень його параметрів 1,2,…,k. Це означає, що відомий вид функції щільності fx(х, ), де = (1,2,…,k), якщо X безперервна (відомий вид функції ймовірності Р (X= х,), якщо X дискретна), але числові значення k параметрів не відомі. Знайдемо оцінку = (1,2,…,k) параметра 0, розташовуючи вибіркою: х1, х2..., хп.
Допустимо, що існує k початкових моментів, кожний із який можна висловити через (без обмеження спільності можна розглядати тільки початкові моменти, тому що центральні моменти є функціями початкових). Нехай такими моментами будуть перший, другий,..., k-й: v1,v2,…,vk (що зовсім не обов'язково). Висловимо кожний із них через :
(3.1)
Помітимо, що в системі
(3.2)
число рівнянь повинно бути рівним числу k оцінюваних параметрів. Знайдемо рішення системи (3.2). Висловивши кожний параметр через v1,v2,…,vk, одержимо:
(3.3)
Властивість змістовності вибіркових початкових моментів є підставою для заміни в рівняннях (3.3) теоретичних моментів v1,v2,…,vk на обчислені при великому п вибіркові моменти v1,v2,…,vk.
Оцінками методу моментів параметрів 1,2,…,k називаються оцінки
(3.4)
Питання про те, які початкові моменти включати в систему (3.2), варто вирішувати, керуючись конкретними цілями дослідження і порівняльної простоти форм залежностей моментів від параметрів. У статистичній практиці справа рідко доходить навіть до четвертих моментів.
Приклад 3.1.1 Випадковий розмір Х~ N (а, у), при цьому числові значення параметрів а і у2 не відомі. Знайдемо оцінки методу моментів для цих параметрів.
Використовуючи формулу (3.1), висловимо моменти v1 і v2 через а й у2:
(v1=a)?(v2=а2 + у2)- такий вид системи (3.2) у даному прикладі. Вирішивши її щодо а й у 2, одержимо: а = v1 у2 = v2 - v12. Звідси оцінки методу моментів:
це оцінка математичного чекання а;

це оцінка дисперсії у2.
Відзначена раніше деяка невизначеність вибору початкових моментів може привести до одержання різних оцінок того самого параметра.
Приклад 3.1.2 Випадковий розмір X має розподіл Пуассона:
Знайдемо оцінку параметра X для двох
варіантів:
а) у якості початкового моменту візьмемо v1, одержимо:
б) у якості початкового моменту візьмемо v2; одержимо:
Оцінки - різні. Звичайно, краще перша: А, = х як більш проста і відповідному змісту параметра пуассонівського розподілу:
= MX, тому за А, природно прийняти х - гарну точечну оцінку математичного чекання.
Однак не всі одержувані методом моментів оцінки мають властивості «гарної оцінки». Так, отримана в прикладі 3.1.1 оцінка
дисперсії у2 не має властивість незміщеності а є асимптотично незміщеною оцінкою: lim м= limn-1/n*=, тобто при великих п можна вважати, що не зміщена щодо .
Приведемо без доказу теорему про функції від моментів, із якої випливають визначені властивості оцінок методу моментів.
Припустимо, що є функцією двох вибіркових моментів vk і vm: =h(v,vm), що не містить явно п. Позначимо =h(v,vm), де vk =Mvk, a vm = M/vm (останні дві рівності вірні в силу властивості незміщенності вибіркових початкових моментів),
Теорема стверджує: якщо в деякій околиці точки (v,vm), функція h безперервна зі своїми першими і другими похідними, то при великих п розподіл випадкового розміру =h(v,vm) близько до нормального (n має асимптотично нормальний розподіл) із математичним чеканням, рівним В, і дисперсією, рівної
(3.5)
де С2() -- деяка постійна, що залежить від . (Теорему можна поширити на будь-яку кількість моментів -- аргументів функції h)
З теореми випливає, що при виконанні досить загальних умов оцінка методу моментів ), при великих п задовольняє наступним співвідношенням:
(3.6)
тобто оцінка методу моментів є асимптотично незміщенною,
(3.7)
Переконаємося в тому, що має властивість забезпеченості. Дійсно, нерівність Чебішева для розміру при великих п, прийме вид:
звідси одержимо, що при п - P(/-/<)1.
Уведемо поняття ефективності й асимптотичної ефективності незміщеної оцінки скалярного параметра .
Ефективністю е() незміщеної оцінки параметра називають відношення min DQn(є s) -- мінімально можливого значення дисперсії оцінки в класі S всіх незміщених оцінок параметра до дисперсії Dn розглянутої оцінки. При виконанні функцією щільності fх(х, 0) [функцією імовірності Р(Х =х, )] досить загальних умов регулярності: дифференційованих по , незалежності області визначення від і т. д. -- має місце нерівність Рао--Крамера--Фреше:
(3.8)
де i() -- кількість інформації про параметр , що міститься в одиничному спостереженні, визначається співвідношенням
(3.9)
(i() -- деяка постійна, що залежить від ). Тому
(3.10)
якщо е() = 1, то -- ефективна оцінка параметра у класі S усіх
його незміщенних оцінок.
Асимптотичної ефективністю оцінки називають розмір
(3.11)
якщо () = 1 то -- асимптотична ефективна оцінка (очевидно, що ефективна оцінка буде й асимптотично ефективною). Знайдемо вираження для асимптотичної ефективності оцінки
. Тому що при великих п оцінку можна вважати незміщеною, то з урахуванням формул (3.11,3.10,3.7) одержимо
Приклад 3.1.3 Переконаємося в тому, що знайдена методом моментів по випадковій вибірці з генеральної сукупності X ~ N (а, а) оцінка X параметра а є ефективної в класі не зміщених оцінок, а оцінка 2 параметра 2 є, після виключення зміщення, асимптотично ефективною.
Оцінка X - незміщена, і DX = 2/п. Припустивши, що 2 відома, і використовуючи формулу (3.10), у якій, з обліком нормальності розподілу,
1(а) = М(dln f(x,a)/da) = 1/ 2 одержимо, що е() = 1. Звідси X - ефективна оцінка.
Оцінка - зміщена; виключивши зміщення, одержимо оцінку
дисперсія котрої Ds =2/n-1.
Припустивши, що а відомо, і використовуючи вираження (3.10), у котрому, с обліком нормальності розподілу,
одержимо, що ефективність е(s2) =(n - 1/n)<1, а асимптотична эффективність e0(s2) = lim e(s2) = 1. Отже, s2 - асимптотична эффективна оцінка.
Зауваження.
Незміщеною і ефективною оцінкою дисперсії є використовувана при відомому значенні параметра а оцінка s = (Xі -a) / п, тому що Мs = 2, Ds = 2/n и е(s) = 1.
При виконанні досить загальних умов усі три оцінки: 2,s2 і s забеспечені.
У приведеному прикладі оцінки методу моментів X і 2 є відповідно ефективної й асимптотично ефективної. Однак подібні приклади швидке виключення: набагато частіше оцінки методу моментів із погляду ефективності не є найкращими з можливих навіть при великих п. Р. Фишер показав, що асимптотична ефективність цих оцінок часто значно менше одиниці. Асимптотично ефективні оцінки можуть бути отримані методом максимальної правдоподібності.
3.1.2 Метод максимальної правдоподібності
В основі методу максимальної правдоподібності лежить поняття функції правдоподібності. Нехай Х= (Х, Х2,..., Хп) -- випадкова, а х = (х,х,..., хп) -- конкретна вибірки з генеральної сукупності X. Нагадаємо, випадкової називають вибірку, що задовольняє наступним умовам:
випадкові розміри Х, Х2,,.., Хп незалежні, тобто
(3.12)
(3.13)
розподіл кожною з розмірів Х збігається з розподілом розміру X, тобто при і= 1, 2,..., n.
(3.14)
Функція правдоподібності -- це функція L (х, ), значення якої в точці х визначається співвідношенням:
З визначення випливає: чим ймовірніше при фіксованому набір х, тим більше значення функції правдоподібності L (x, ), звідси і її назва.
Отже,
(3.15)
Відповідно до методу максимальної правдоподібності оцінка максимальної правдоподібності (п) = (п), ,..., ) параметра = (, ,..., ), при заданому наборі х визначається з умови:
(3.16)
де {} - область припустимих значень для .
Природність такого підходу до визначення оцінки випливає зі змісту функції L: при фіксованому функція L (х, 0) -- міра правдоподібності набору х; тому, змінюючи , можна простежити, при яких його значеннях набір є більш правдоподібним, а при яких - менше, і вибрати таке значення , при якому наявний набір х буде найбільш правдоподібним.
У ряді випадків зручніше визначати з умови:
In ?(х, ) = In L(x, ) (3.17)
ідентичного умові (3.16): якщо замість функції L узяти In L, крапка максимуму не зміниться. Функцію In L (х, 0) називають логарифмічною функцією правдоподібності.
Відповідно до формули (3.17), для знаходження (П) випливає: знайти вирішення системи рівнянь максимальної правдоподібності

(3.18)
при цьому вирішенням вважається лише такий набір * = (*,*,..., *), що задовольняє (3.18), у якому кожне * дійсно залежить від х;
серед вирішень, що лежать усередині області {}, виділити крапки максимуму;
якщо система (3.18) не визначена, не розв'язна або якщо серед її вирішень немає крапки максимуму усередині {}, то крапку максимуму варто шукати на границі області {}.
Приклад 3.2.1 Знайдемо методом максимальної правдоподібності оцінки параметрів а і b = у2 нормального розподілу.
Відповідно до формули (3.15), функція правдоподібності
логарифмічна функція правдоподібності
Приватні похідні:
Перевіримо достатні умови максимуму функції In L у точці (а*, b*).
Знайдемо:
тому що ? >0, А<0, то крапка * = ,b*= ] є крапкою максимуму функції In L. Тому оцінки максимальної правдоподібності =х, =. Оцінки збіглися з оцінками методу моментів.
Приклад 3.2.2 < и т.д.................


Перейти к полному тексту работы



Смотреть похожие работы


* Примечание. Уникальность работы указана на дату публикации, текущее значение может отличаться от указанного.