Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Wnioskowanie statystyczne Katedra Ubezpieczeń i Rynków Kapitałowych Tel. (91) 444 19 63 Konsultacje: wtorek/środa godz.

Podobne prezentacje


Prezentacja na temat: "Wnioskowanie statystyczne Katedra Ubezpieczeń i Rynków Kapitałowych Tel. (91) 444 19 63 Konsultacje: wtorek/środa godz."— Zapis prezentacji:

1 Wnioskowanie statystyczne Katedra Ubezpieczeń i Rynków Kapitałowych Tel. (91) Konsultacje: wtorek/środa godz –13 30, pok. 212 dr Urszula Gierałtowska

2 Wnioskowanie statystyczne Literatura: 1.Hozer J., Kolanko E., Korol M., Lasota B., Witek M., Statystyka. Część II. Wnioskowanie statystyczne, Wydawnictwo Naukowe Uniwersytetu Szczecińskiego, Szczecin Jóźwiak J., Podgórski J., Statystyka od podstaw, PWE, Warszawa 2006, 3.Aczel A. D., Statystyka w zarządzaniu, PWN, Warszawa Greń J., Statystyka matematyczna, modele i zadania, PWN, Warszawa Balicki A., Makać W., Metody wnioskowania statystycznego, Wydawnictwo Uniwersytetu Gdańskiego, Gdańsk Luszniewicz A., Statystyka nie jest trudna. Metody wnioskowania statystycznego, PWE, Warszawa Domański C.,Testy statystyczne, PWE, Warszawa Fisz M., Rachunek prawdopodobieństwa i statystyka matematyczna, PWN, Warszawa Domański C., Pruska K., Nieklasyczne metody statystyczne, PWE, Warszawa Bąk I., Markowicz I., Mojsiewicz M., Wawrzyniak K., Statystyka w zadaniach. Cz. II, Wydawnictwo Naukowo-Techniczne, Warszawa Krysicki W., Bartos J., Dyczka W., Królikowska K., Wasilewski M., Rachunek prawdopodobieństwa i statystyka matematyczna w zadaniach. Część 2. Statystyka matematyczna, Wydawnictwo Naukowe PWN, Warszawa Bąk I., Markowicz I., Mojsiewicz M., Wawrzyniak K., Wzory i tablice statystyczne, Katedra Ekonometrii i Statystyki US, Stowarzyszenie Pomoc i Rozwój, Szczecin 1997.

3 Wnioskowanie statystyczne Elementarne zagadnienia rachunku prawdopodobieństwa Zdarzenie (zdarzenie losowe) – wynik pewnej obserwacji lub doświadczenia (może być ilościowy lub jakościowy). Zdarzenie, którego zajście leży całkowicie lub częściowo poza zasięgiem kontroli. Zdarzenie elementarne – najprostszy wynik doświadczenia losowego, tzn. zdarzenie losowe, którego nie da się rozłożyć na zdarzenia prostsze. zbiór wszystkich zdarzeń elementarnych w danym doświadczeniu lub obserwacji (przestrzeń zdarzeń elementarnych). Rachunek prawdopodobieństwa (probabilistyka, od łacińskiego słowa probabilitis oznaczającego prawdopodobny) zajmuje się badaniem praw rządzących zdarzeniami losowymi. Pojęciami pierwotnymi są: zdarzenia elementarne i przestrzeń zdarzeń elementarnych związane z doświadczeniem losowym D. Prawdopodobieństwo – jest ilościową miarą niepewności, jest to liczba, która wyraża siłę przekonania o tym, że zajdzie niepewne zdarzenie. Twórcy: Blaise Pascal ( ), Pierre de Fermat ( ), Galileo Galileusz ( ), Abraham de Moivrea ( )

4 Wnioskowanie statystyczne Zdarzeniami losowymi są takie zdarzenia, które w danym układzie zupełnym zdarzeń: – wzajemnie się wykluczają; – jedno ze zdarzeń się realizuje; – realizacja zdarzeń ma charakter losowy. Oceny ilościowej zdarzeń i zjawisk losowych dokonuje się za pomocą pewnej charakterystyki, zwanej prawdopodobieństwem. Istnieje szereg definicji prawdopodobieństwa, opartych na różnych teoriach: częstościowej, mnogościowej, logicznej; szczególne miejsce zajmuje aksjomatyczna definicja prawdopodobieństwa Kołmogorowa. Klasyczna definicja prawdopodobieństwa Jeżeli przestrzeń składa się z n zdarzeń elementowych jednakowo prawdopodobnych, to prawdopodobieństwo zajścia zdarzenia A jest ilorazem liczby zdarzeń elementarnych sprzyjających zajściu zdarzenia A przez liczbę wszystkich zdarzeń elementarnych, tzn.: gdzie: P(A) – prawdopodobieństwo zdarzenia A, m – liczba zdarzeń sprzyjających, n – liczba wszystkich zdarzeń.

5 Wnioskowanie statystyczne AB A i B A*B A B Zdarzenia rozłączne A, B Zdarzenie pewne (suma wszystkich zdarzeń możliwych) (b) (c) (d) (e) A ~A~A (a) A+( ~ A)= A lub B (A+B) Właściwości prawdopodobieństwa : Jeśli A, B,.. są zdarzeniami rozłącznymi (wykluczają się wzajemnie) to P(A B …) = P(A) + P(B) +...(patrz rysunek d) Jeśli jest zdarzeniem pewnym to P( ) = 1(patrz rysunek e) Stąd wynika, że dla dowolnego zdarzenia A 0 P(A) 1 P(A) = 1 - P(A)(patrz rysunek a) Dla dowolnych zdarzeń A i B P(A B) = P(A) + P(B) – P(A B) (patrz rysunki b, c)

6 Wnioskowanie statystyczne Definicja prawdopodobieństwa statystycznego (częstościowa): Prawdopodobieństwem pojawienia się zdarzenia sprzyjającego zjawisku A nazywa się granicę, do której dąży empiryczny stosunek liczności zrealizowanych zdarzeń losowych sprzyjających danemu zjawisku m do liczności wszystkich zrealizowanych zdarzeń losowych z pewnego układu zupełnego zdarzeń (n ), gdy n dąży do nieskończoności. 1. W sklepie znajdują się magnetowidy trzech firm: I, II, III: 3 razy tyle magnetowidów firmy I co magnetowidów firmy II, a 5 razy tyle magnetowidów firmy I co magnetowidów firmy III. Jakie jest prawdopodobieństwo, że wybierając losowo magnetowid, trafimy na magnetowid firmy II? Przykład 2. Rzucamy kostką do gry. Jakie jest prawdopodobieństwo, że wypadnie parzysta liczba oczek?

7 Wnioskowanie statystyczne Prawdopodobieństwo warunkowe Prawdopodobieństwem warunkowym zajścia zdarzenia A, pod warunkiem, że zajdzie zdarzenie B nazywamy liczbę: gdzie A, B i P(B) > 0 Jeżeli A jest dowolnym zdarzeniem, natomiast B 1, B 2, B 3,..., B n spełniają warunki: 1. B 1 B 2 … B n = 2. wykluczają się parami 3. mają dodatnie prawdopodobieństwa, to P(A) = P(A|B 1 ) · P(B 1 ) + P(A|B 2 ) · P(B 2 ) P(A|B n ) · P(B n ) Prawdopodobieństwo całkowite Zdarzenia niezależne Zdarzenia losowe A i B nazywamy niezależnymi jeżeli P(A B) = P(A) Zdarzenia losowe A i B są niezależne, wtedy i tylko wtedy, gdy P(A) · P(B) = P(A B)

8 Wnioskowanie statystyczne Twierdzenie Bayesa Jeżeli zdarzenia B 1, B 2, … tworzą podział przestrzeni i P(B i ) > 0, i = 1, 2, …, dla dowolnego to dla zdarzenia A takiego, ze P(A)>0, to dla każdego i Jest to wzór na prawdopodobieństwo á posteriori, gdyż dotyczy prawdopodobieństwa zajścia zdarzenia B i po zajściu zdarzenia A. Prawdopodobieństwa B i noszą nazwę prawdopodobieństw á priori lub prawdopodobieństw subiektywnych. Żarówki są produkowane w 3 fabrykach. Z fabryki pierwszej pochodzi 25% produkcji, z fabryki drugiej 35% produkcji a z trzeciej 40%. Produkcja wadliwa wynosi odpowiednio: dla fabryki I – 5%, dla fabryki II – 4%, dla fabryki III – 2%. Wybrana żarówka okazała się wadliwa – jakie jest prawdopodobieństwo, że pochodzi ona z fabryki pierwszej? Przykład

9 Wnioskowanie statystyczne Zmienna losowa zmienna, która w wyniku doświadczenia może przyjąć wartości z pewnego zbiory liczb rzeczywistych, z określonym prawdopodobieństwem. Zmienne losowe dzielą się na skokowe i ciągłe. – Zmienną nazywamy skokową (dyskretną), jeżeli jej zbiór wartości jest przeliczalny (lub skończony). Zmienna tego rodzaju przyjmuje wartości z pewnego przedziału liczbowego. Szczególnym przypadkiem zmiennej skokowej jest tzw. zmienna zero–jedynkowa, używana w przypadku cech dychotomicznych, która może przyjmować tylko dwie wartości: 0 lub 1. – Zmienną losową nazywamy ciągłą, jeżeli może ona przybierać każdą wartość z pewnego przedziału liczbowego. Zmienną losową nazywamy każdą funkcję X określoną na przestrzeni zdarzeń elementarnych, przyjmującą wartości rzeczywiste, taką, że dla każdej liczby rzeczywistej x zbiór zdarzeń elementarnych spełniających warunek X( ) < x jest zdarzeniem losowym, tzn. należy do rodziny F. nazywamy zmienną losową, jeżeli

10 Wnioskowanie statystyczne Dystrybuanta zmiennej losowej Dystrybuantą rozkładu prawdopodobieństwa zmiennej losowej X: R nazywamy funkcję F x : R R określoną wzorem: F x (x)=P({ : X( ) < x}) zatem wartość dystrybuanty Fx(x) jest równa prawdopodobieństwu zdarzenia, że zmienna losowa przyjmuje wartości należące do przedziału (-, x>. W szczególności dystrybuantę zmiennej losowej X będziemy zapisywali w postaci F(x) = P(X < x). Własności dystrybuanty – F jest funkcją niemalejącą, tzn. jeżeli x 1 < x 2, to F(x 1 ) < F(x 2 ) – F jest funkcja lewostronnie ciągłą, tzn. dla każdego a R – – jeżeli a < b, to P (a X < b) = F(b) – F(a), – jeżeli x jest liczbą skończoną, to P(X x) = 1 F(x) Zmienne losowe są opisywane za pomocą funkcji (rozkładów). W zależności od rodzaju zmiennej są to: 1. funkcja prawdopodobieństwa (zmienne losowe skokowe), 2. funkcja gęstości (zmienne losowe ciągłe).

11 Wnioskowanie statystyczne Zmienna losowa typu skokowego (dyskretnego) Zmienna losowa X jest typu skokowego (dyskretnego), jeśli przyjmuje skończoną lub nieskończoną, ale przeliczalną liczbę wartości, tzn. X x 1, x 2, …,x i,...]. Funkcję p i = P(X = x i ) = P ({ : X( ) = x i }) przyporządkowującą wartościom x 1, x 2,..., x k,... zmiennej losowej X odpowiednie prawdopodobieństwa p 1, p 2,..., p k,... nazywamy funkcją prawdopodobieństwa zmiennej losowej X typu skokowego. Przy czym p i > 0 oraz Dystrybuantą zmiennej losowej skokowej X jest funkcja F określona wzorem gdzie sumowanie odbywa się po tych x i, które spełniają nierówności - < x i < x..

12 Wnioskowanie statystyczne Przykład 1. W pudełku jest 10 losów ponumerowanych od 1 do 10. Na los z numerem 1 pada główna wygrana 10 zł, na losy z numerami 2 i 3 wygrana pocieszenia w wysokości 1 zł, a za wyciągnięcie pozostałych płacimy 2 zł. Załóżmy, że wyciągnięcie każdego z losów jest jednakowo prawdopodobne. Doświadczenie polega na wyciągnięciu jednego losu. x(–, 0](0, 1](1, 3](3, 6](6, +) F(x)01/31/25/61 2. Dana jest dystrybuanta zmiennej losowej X Znaleźć rozkład prawdopodobieństwa zmiennej losowej X.

13 Wnioskowanie statystyczne Podstawowe charakterystyki liczbowe zmiennej losowej skokowej Funkcja rozkładu prawdopodobieństwa bądź dystrybuanta zmiennej losowej w sposób dokładny charakteryzują zmienną losową. Nie zawsze znajomość tych funkcji jest niezbędna. W większości przypadków wystarczy znać pewne charakterystyki, które w wystarczający sposób opisują rozkłady zmiennych losowych. Podstawowymi charakterystykami zmiennej losowej jednowymiarowej są: wartość oczekiwana i odchylenie standardowe (średni błąd). Wartością oczekiwaną (wartością przeciętną, wartością średnią, nadzieją matematyczną) zmiennej losowej skokowej X nazywamy liczbę Wartość oczekiwana jest to więc pewna średnia ważona wartości zmiennej losowej. Własności wartości oczekiwanej.

14 Wnioskowanie statystyczne Wariancją zmiennej losowej X nazywamy wartość oczekiwaną kwadratu odchylenia zmiennej losowej X od jej wartości oczekiwanej – E(X), tzn. D 2 (X) = E(X – E(X)) 2. Inaczej Wariancja jest to miara rozrzutu zmiennej losowej X. Własności wariancji: W loterii wypuszczono 500 losów, w tym jeden los z wygraną 1000 zł, pięć losów z wygraną po 200 zł i dwadzieścia losów – po 50 zł. Określić rozkład zmiennej losowej X, będącej wielkością możliwej wygranej osoby, która kupiła jeden los. Obliczyć wartość oczekiwaną i odchylenie standardowe tak określonej zmiennej losowej. Przykład

15 Wnioskowanie statystyczne Wybrane rozkłady zmiennej losowej skokowej

16 Wnioskowanie statystyczne Rozkład dwumianowy (Bernoulliego) Schemat Bernoulliego polega na realizacji n niezależnych zdarzeń losowych, z których każde może zakończyć się sukcesem z prawdopodobieństwem p lub porażką 1 – p = q. W wyniku realizacji n zdarzeń losowych, zdarzenie A pojawić się może 0, 1,..., n razy, stąd zmienna skokowa X może przybierać wartości k = 0, 1,..., n. Rozkład dwumianowy można przybliżać innymi rozkładami: – gdy np > 5 i n(1 p) > 5, to przybliżamy rozkładem normalnym o μ = np i = np(1 p) – gdy N jest duże, a p małe, to przybliżamy rozkładem Poissona = np Przykład Pewna firma posiada pięć jednakowych komputerów pracujących niezależnie od siebie. Prawdopodobieństwo tego, że w ciągu dnia roboczego komputer ulegnie awarii wynosi 0,1. Zakładamy, że awarię usuwa się dopiero następnego dnia. Jaki jest rozkład liczby komputerów ulegających awarii w ciągu dnia roboczego i jakie jest prawdopodobieństwo tego, że w ciągu dnia awarii ulegną więcej niż dwa komputery?

17 Wnioskowanie statystyczne Rozkład Poissona Rozkład Poissona jest rozkładem zmiennej losowej skokowej, który stosuje się w przypadku określania prawdopodobieństwa zajścia zdarzeń stosunkowo rzadkich i niezależnych od siebie przy występowaniu dużej ilości doświadczeń. Rozkład Poissona jest przybliżeniem rozkładu Bernoulliego dla dużych prób i przy małym prawdopodobieństwie zajścia zdarzenia sprzyjającego. Rozkład Poissona różni się od dwumianowego: – na rozkład dwumianowym ma wpływ zarówno liczba prób N jak i prawdopodobieństwo p, a na rozkład Poissona wpływa jedynie, – możliwe wartości zmiennej o rozkładzie dwumianowym to 0, 1,...N, a w rozkładzie Poissona nie ma górnego ograniczenia tzn., zmienna przyjmuje wartości 1, 2, 3,... Obliczyć prawdopodobieństwo wylosowania co najwyżej trzech osób leworęcznych w 200 losowaniach, jeśli wiadomo, że prawdopodobieństwo spotkania osoby leworęcznej w pewnej populacji ludzi wynosi 0,05. Przykład

18 Wnioskowanie statystyczne Zmienna losowa X jest ciągła, tzn. przyjmuje nieprzeliczalną ilość wartości, to prawdopodobieństwo, że przyjmuje ona konkretną wartość x jest równa zeru. Z tego względu określa się jedynie prawdopodobieństwo, że ciągła zmienna losowa X jest zawarta w pewnym przedziale wartości. Zmienna losowa typu ciągłego Funkcją gęstości zmiennej losowej X typu ciągłego nazywamy funkcję f : R R określoną Graficzną interpretacją całki jest pole obszaru ograniczonego wykresem funkcji f(x), osią odciętych i prostymi x = a, x = b.

19 Wnioskowanie statystyczne Dystrybuantę zmiennej losowej ciągłej X można przedstawić w postaci: gdzie f(x) jest nieujemną funkcją gęstości. Wykresem dystrybuanty zmiennej losowej typu ciągłego jest linia ciągła. Jeżeli f : R R jest funkcją gęstości prawdopodobieństwa zmiennej losowej typu ciągłego, to: Z definicji pochodnej, w punkcie ciągłości funkcji f(x) mamy czyli funkcja gęstości f(x) zmiennej losowej jest pochodną dystrybuanty F(x).

20 Wnioskowanie statystyczne Podstawowe charakterystyki liczbowe zmiennej losowej ciągłej Wartość oczekiwana Odchylenie standardowe

21 Wnioskowanie statystyczne Wybrane rozkłady zmiennej losowej ciągłej

22 Wnioskowanie statystyczne Rozkład równomierny (prostokątny, jednostajny) jest najprostszym rozkładem zmiennej losowej typu ciągłego. Rozkład ten bywa czasem stosowany w sytuacji, gdy można przypuszczać, że każda wartość zmiennej w pewnym przedziale liczbowym jest jednakowo możliwa. Rozkład wykładniczy jest jedynym rozkładem ciągłym, który ma własność zwaną brakiem pamięci. Własność tę można interpretować następująco: jeżeli zmienna losowa X jest czasem bezawaryjnej pracy pewnego elementu o rozkładzie wykładniczym, to niezależnie od dotychczasowego czasu pracy elementu, dalszy czas pracy nie zależy od przeszłości i ma taki sam rozkład, co całkowity czas pracy elementu.

23 Wnioskowanie statystyczne Rozkład normalny (rozkład Gaussa) jest rozkładem, któremu podlega wiele zjawisk świata fizycznego, np. waga oraz wzrost populacji ludzi. Rozkład normalny jest interpretowany, jako wyraz równowagi dynamicznej trwałej układu względnie izolowanego, w którym zachodzące zmiany są samoregulowane poprzez działanie sprzężenia zwrotnego ujemnego. Rozkład normalny został po raz pierwszy przedstawiony przez de Moivrea w artykule w 1773 w kontekście aproksymacji niektórych rozkładów dwumianowych dla dużych n. Wyniki tych badań zostały rozwinięte przez Laplacea, a w statystyce funkcjonują jako twierdzenie de Moivre'a- Laplace'a.

24 Wnioskowanie statystyczne Zmienna losowa X ma rozkład normalny o parametrach oraz, co w skrócie zapisuje się jako X: N(, ), jeżeli jej funkcja gęstości wyraża się wzorem: Dystrybuantą zmiennej losowej X mającej rozkład normalny jest funkcją F(x) określona na zbiorze liczb rzeczywistych o postaci:

25 Wnioskowanie statystyczne Funkcja gęstości w rozkładzie normalnym: – jest symetryczna względem prostej x = (osią symetrii jest prosta pionowa przechodząca przez punkt x = μ), jest rosnąca dla x μ – w punkcie x = osiąga wartość maksymalną – ramiona funkcji mają punkty przegięcia dla x = - σ oraz x = + σ – kształt funkcji gęstości zależy od wartości parametrów: i σ. Parametr decyduje o przesunięciu krzywej, natomiast parametr σ decyduje o smukłości krzywej (im mniejsza jest wariancja/odchylenie standardowe, tym wykres gęstości prawdopodobieństwa jest bardziej wysmukły)

26 Wnioskowanie statystyczne Wartość oczekiwana i wariancja dla rozkładu normalnego wyrażane są następującymi wzorami: Wartość jest to taka wartość zmiennej losowej X, wokół której skupiają się wyniki wielokrotnych realizacji tej zmiennej. Innymi słowy, oczekuje się (ma się nadzieję), że wielokrotne realizacje zmiennej losowej X będą skupiały się wokół liczby.

27 Wnioskowanie statystyczne Funkcja gęstości rozkładu normalnego ma zastosowanie do reguły trzech sigma, którą następnie rozwinięto na regułę sześć sigma – stosowaną w kontroli jakości, przede wszystkim w USA (np. General Electric, General Motors Company) Reguła trzech sigm Reguła trzech sigma – jeżeli zmienna losowa ma rozkład normalny to: – 68,3 % populacji mieści się w przedziale ( - σ; + σ) – 95,5 % populacji mieści się w przedziale ( - 2σ; + 2σ) – 99,7 % populacji mieści się w przedziale ( - 3σ; + 3σ) Reguła ta ma duże znaczenie w teorii błędów obserwacji, bowiem błędy przypadkowe pomiarów tej samej wielkości fizycznej zwykle tak się rozkładają, że wyniki tych pomiarów mają rozkład normalny. Rozkład ten nie wystąpi, gdy popełniony zostanie tendencyjny błąd systematyczny.

28 Wnioskowanie statystyczne Standaryzacja polega na sprowadzeniu dowolnego rozkładu normalnego o danych parametrach i σ do rozkładu standaryzowanego o wartości oczekiwanej = 0 i odchyleniu standardowym σ = 1. Jeżeli zmienna losowa X ma rozkład N (, ), to zmienna losowa (X – )/ ma rozkład N(0, 1), zwany standardowym rozkładem normalnym. Zmienną losową X zastępujemy zmienną standaryzowaną u, która ma rozkład N(0,1), jej funkcję gęstości oznaczamy φ(u), natomiast dystrybuantę Φ(u): Gęstość dla zmiennej standaryzowanej u określa wzór: a dystrybuantę: Standaryzacja Wartości funkcji gęstości oraz dystrybuanty dla różnych wartości u są stabilicowane. Ze względu na symetrię funkcji względem prostej u = 0 w tablicach są podane często wartości obu funkcji jedynie dla dodatnich u. Przy wyznaczaniu wartości i korzysta się wtedy z własności tych funkcji

29 Wnioskowanie statystyczne Tablica dystrybuanty rozkładu normalnego N(0, 1) dla u =1,64 u = 1,64) = F u = 1,64 = 0,949497

30 Wnioskowanie statystyczne W celu obliczenia prawdopodobieństwa P(a < X b) należy skorzystać ze standaryzacji. Jeśli zmienna losowa X ma rozkład N( ) to zmienna standaryzowana u ma rozkład N(0,1), czyli: Wartości oraz należy odczytać w tablicach dystrybuanty standaryzowanego rozkładu normalnego. Przykład 1. Dany jest rozkład zmiennej losowej X o parametrach N(15; 5). Obliczyć: a) P(X<12) b) P(X>14) c) P{12 < X < 14} 2. Wzrost kobiet w pewnej populacji ma rozkład normalny N(165,15). Oznacza to, iż zmienna losowa jaką jest wzrost kobiet ma rozkład normalny ze średnią równą 165 cm i odchyleniem standardowym równym 15 cm. Jaki jest udział w populacji kobiet o wzroście: a) do 160 cm, b) w przedziale cm, c) powyżej 175 cm.

31 Wnioskowanie statystyczne Rozkład chi – kwadrat ( 2 ) Danych jest k ciągłych zmiennych losowych o rozkładzie normalnym z wartością oczekiwana 0 i odchyleniem standardowym 1, tj. każda zmienna X i : N(0; 1) (i = 1,2,..., k). Zdefiniujemy nowa zmienna losowa o nazwie chi-kwadrat ( 2 ): Rozkład chi kwadrat to rozkład zmiennej losowej, która jest sumą k kwadratów niezależnych zmiennych losowych o standardowym rozkładzie normalnym. Liczbę naturalną k nazywa się liczbą stopni swobody rozkładu zmiennej losowej. Liczba stopni swobody jest liczbą niezależnych wyników obserwacji pomniejszoną o liczbę związków, które łączą te wyniki ze sobą. Wykres funkcji gęstości (dla k>2) Rozkład zmiennej losowej o k stopniach swobody ma następujące parametry: – nadzieja matematyczna – wariancja

32 Wnioskowanie statystyczne Rozkład zmiennej losowej 2 o k stopniach swobody jest rozkładem pomocniczym używanym we wnioskowaniu statystycznym. Tablice rozkładu zmiennej losowej 2 o k stopniach swobody zostały opracowane tak, że podają przy założonym prawdopodobieństwie taką wartość (oznaczmy ja 2 k ) zmiennej losowej 2, dla której:

33 Wnioskowanie statystyczne

34 Rozkład t – Studenta Rozkład Studenta zwany rozkładem t lub rozkładem t-Studenta to ciągły rozkład prawdopodobieństwa często stosowany w statystyce podczas testowania hipotez i przy ocenie błędów pomiaru. Rozkład t jest symetryczny względem prostej x = 0 oraz bardzo zbliżony kształtem do rozkładu normalnego standaryzowanego. Rozkładem zmiennej losowej t-Studenta o k stopniach swobody nazywamy rozkład zmiennej t zdefiniowanej jako: gdzie u zmienna losowa o rozkładzie normalnym N(0; 1) oraz 2 zmienna losowa o rozkładzie 2 o k stopniach swobody. Wykres funkcji gęstości Rozkład zmiennej losowej o k stopniach swobody ma następujące parametry: – nadzieja matematyczna – wariancja

35 Wnioskowanie statystyczne Rozkład zmiennej losowej t-Studenta o k stopniach swobody jest rozkładem pomocniczym używanym we wnioskowaniu statystycznym. Tablice zmiennej losowej t-Studenta o k stopniach swobody zostały opracowane tak, że podają przy założonym prawdopodobieństwie taka wartość (oznaczamy ją t,k ) zmiennej losowej t, dla której:

36 Wnioskowanie statystyczne

37 Twierdzenia graniczne a prawa wielkich liczb W twierdzeniach granicznych rozpatruje się ciągi zmiennych losowych {X n }, których rozkłady przy wzroście wskaźnika n do nieskończoności mogą być zbieżne do pewnego rozkładu. Jeżeli takie zjawisko występuje, to taki rozkład nazywamy rozkładem granicznym (asymptotycznym) ciągu zmiennych losowych {X n }. Mówi się wtedy również, że zmienna losowa X n ma graniczny rozkład o określonej postaci. Twierdzenia graniczne formułują warunki, przy których dla ciągu zmiennych losowych istnieje asymptotyczny rozkład oraz określają, jaka jest postać tego rozkładu. Twierdzenia, które mówią o zbieżności ciągu funkcji prawdopodobieństwa (lub funkcji gęstości), są nazywane lokalnymi twierdzeniami granicznymi, zaś te które rozpatrują zbieżność ciągu dystrybuant, nazywane są integralnymi twierdzeniami granicznymi. Osobną klasą twierdzeń granicznych stanowią prawa wielkich liczb, które dotyczą zbieżności ciągu zmiennych losowych do rozkładu jednopunktowego.

38 Wnioskowanie statystyczne Prawa wielkich liczb seria twierdzeń matematycznych (jedne z tzw. twierdzeń granicznych), opisujących związek między liczbą wykonywanych doświadczeń a faktycznym prawdopodobieństwem wystąpienia zdarzenia, którego te doświadczenia dotyczą. Najprostsza i historycznie najwcześniejsza postać prawa wielkich liczb to prawo Bernoulliego. Prawo to orzeka, że: z prawdopodobieństwem dowolnie bliskim 1 można się spodziewać, iż przy dostatecznie wielkiej liczbie prób częstość danego zdarzenia losowego będzie się dowolnie mało różniła od jego prawdopodobieństwa. Można to zapisać jako: Jeżeli X oznacza zmienną losową o rozkładzie dwumianowym (np, ), to dla każdej dodatniej liczby

39 Wnioskowanie statystyczne Wybrane prawa wielkich liczb 1. Nierówność Czebyszewa – jeżeli X jest dowolną zmienną losową o skończonej wariancji 2, to dla dowolnej liczby > 0 zachodzi tzw. nierówność Czebyszewa Nierówność Czebyszewa podaje górne ograniczenie prawdopodobieństwa zdarzenia, że wartość nieujemnej zmiennej losowej jest większa lub równa od z góry ustalonej dodatniej liczby. 2. Twierdzenie Markowa – jeżeli ciąg zmiennych losowych {X n } n N spełnia warunek to dla każdej dodatniej liczby

40 Wnioskowanie statystyczne 3. Twierdzenie Czebyszewa – jeżeli {X n } n N jest ciągiem zmiennych losowych o wariancjach n 2 ograniczonych wspólną stałą C tzn. to dla każdej dodatniej liczby tzn. ciąg sum zmiennych losowych jest stochastycznie zbieżny do swojej wartości oczekiwanej. 4. Twierdzenie Poissona – jeżeli {X n } n N jest ciągiem niezależnych zmiennych losowych o jednakowych wartościach oczekiwanych i wariancjach 2 ograniczonych wspólną stałą C, to dla każdej dodatniej liczby

41 Wnioskowanie statystyczne 5. Twierdzenie Chinczyna (dotyczy własności sumy zmiennych losowych, które mają taki sam rozkład, ale nie muszą mieć wariancji) – jeżeli ciąg losowy {X n } n N jest ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie i skończonej wartości oczekiwanej, to ciąg jest stochastycznie zbieżny do tzn. 6. Pierwsze prawo Kołmogorowa – jeżeli {X n } n N jest ciągiem niezależnych zmiennych losowych o wariancjach n 2 i spełniony jest warunek to: 7. Drugie prawo Kołmogorowa – niech {X n } n N będzie ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie i skończonej wartości oczekiwanej, to ciąg jest zbieżny do z prawdopodobieństwem 1. tzn.

42 Wnioskowanie statystyczne Centralne twierdzenie graniczne – twierdzenie Lindeberga – Lévy'ego Niech X 1, X 2, …, X n będzie prostą próbą losową z rozkładu o średniej i wariancji 2. Wówczas dla dużych liczności próby n rozkład prawdopodobieństwa standaryzowanej średniej (standaryzowanej sumy X 1 + X 2 + … + X n ) jest bliski standardowemu rozkładowi normalnemu N(0, 1), dokładniej dla dowolnych liczb a, b, przy n. Równoważnie rozkład średniej jest bliski rozkładowi normalnemu Możliwe jest również zdefiniowanie zmiennej losowej będącej sumą X 1, X 2, …, X n, wówczas rozkład sumy jest bliski rozkładowi normalnemu Szczególnym przypadkiem twierdzenia Lindeberga-Lévy'ego jest twierdzenie Moivre'a-Laplace'a dotyczące zmiennych losowych X 1, X 2, …, X n o rozkładzie zerojedynkowym. Wówczas można wykazać, ze zmienna losowa Y n ma rozkład dwumianowy. Na podstawie tego twierdzenia dla dużych n, w praktyce n 100 można rozkład dwumianowy zastąpić rozkładem normalny.

43 Wnioskowanie statystyczne Centralne twierdzenie graniczne – twierdzenie de Moivrea-Laplacea Twierdzenie de Moivrea-Laplacea mówi o tym, ze liczba sukcesów w n próbach Bernoulliego z prawdopodobieństwem sukcesu p po standaryzacji (tzn. unormowaniu do zmiennej losowej o średniej = 0 i wariancji = 1) dąży według rozkładu do standardowego rozkładu normalnego, gdy n. Zatem dla dużych n liczba sukcesów w n próbach Bernoulliego z prawdopodobieństwem sukcesu p ma asymptotycznie rozkład normalny Równoważnie, częstość występowania sukcesów S n /n (średnia) ma asymptotycznie rozkład normalny

44 Wnioskowanie statystyczne Przykłady 1. W grupie studentów przeprowadzono test ze statystyki, gdzie zmienna losowa X k oznaczała liczbę zdobytych punktów (od 0 do 100, gdzie k – jest liczbą studentów). Rozkład zmiennej X k jest identyczny dla wszystkich studentów – E(X k ) = 70; D(X k ) = 20. Obliczyć prawdopodobieństwo tego, że: a) suma punktów uzyskanych przez 100 studentów będzie wyższa od 7500 punktów, b) przeciętna liczba zdobytych punktów w 100–osobowej grupie studentów będzie w przedziale 65–70 pkt. 2. Pewien towar produkowany jest w 2 gatunkach. 40 % produkcji stanowi gatunek 1, natomiast 60 % – drugi. Jakie jest prawdopodobieństwo, że w niezależnie pobranej partii towaru liczącej 50 sztuk, liczba sztuk 1–go gatunku będzie większa od Prawdopodobieństwo wylosowania wyrobu 1–go gatunku wynosi 0,25. Obliczyć prawdopodobieństwo tego, że częstość wystąpienia sztuk I gatunku wśród 400 wylosowanych wyrobów wyniesie nie więcej niż 30 %.


Pobierz ppt "Wnioskowanie statystyczne Katedra Ubezpieczeń i Rynków Kapitałowych Tel. (91) 444 19 63 Konsultacje: wtorek/środa godz."

Podobne prezentacje


Reklamy Google