Statystyka i Demografia wykład 10

Slides:



Advertisements
Podobne prezentacje
Regresja i korelacja materiały dydaktyczne.
Advertisements

ESTYMACJA PRZEDZIAŁOWA
PODZIAŁ STATYSTYKI STATYSTYKA STATYSTYKA MATEMATYCZNA STATYSTYKA
Estymacja. Przedziały ufności.
Analiza współzależności zjawisk
Analiza wariancji jednoczynnikowa
Skale pomiarowe – BARDZO WAŻNE
BUDOWA MODELU EKONOMETRYCZNEGO
Wnioskowanie statystyczne CZEŚĆ III
Statystyka w doświadczalnictwie
Podstawowe pojęcia prognozowania i symulacji na podstawie modeli ekonometrycznych Przewidywaniem nazywać będziemy wnioskowanie o zdarzeniach nieznanych.
Analiza korelacji.
Wykład 6 Standardowy błąd średniej a odchylenie standardowe z próby
Wykład 4 Przedziały ufności
Metody Przetwarzania Danych Meteorologicznych Wykład 4
Rozkład normalny Cecha posiada rozkład normalny jeśli na jej wielkość ma wpływ wiele niezależnych czynników, a wpływ każdego z nich nie jest zbyt duży.
Wykład 4. Rozkłady teoretyczne
Metody Symulacyjne w Telekomunikacji (MEST) Wykład 6/7: Analiza statystyczna wyników symulacyjnych  Dr inż. Halina Tarasiuk
Średnie i miary zmienności
Jednoczynnikowa analiza wariancji (ANOVA)
Rozkład t.
Hipotezy statystyczne
Testy nieparametryczne
Konstrukcja, estymacja parametrów
Testowanie hipotez statystycznych
Elementy Rachunku Prawdopodobieństwa i Statystyki
BADANIE STATYSTYCZNE Badanie statystyczne to proces pozyskiwania danych na temat rozkładu cechy statystycznej w populacji. Badanie może mieć charakter:
Testy nieparametryczne
Elementy Rachunku Prawdopodobieństwa i Statystyki
Elementy Rachunku Prawdopodobieństwa i Statystyki
Hipotezy statystyczne
Elementy Rachunku Prawdopodobieństwa i Statystyki
Kilka wybranych uzupelnień
Planowanie badań i analiza wyników
Seminarium licencjackie Beata Kapuścińska
Testowanie hipotez statystycznych
Dopasowanie rozkładów
Wnioskowanie statystyczne
Statystyka medyczna Piotr Kozłowski
Wykład 5 Przedziały ufności
Weryfikacja hipotez statystycznych
Weryfikacja hipotez statystycznych dr hab. Mieczysław Kowerski
Podstawowe pojęcia i terminy stosowane w statystyce
Statystyczna analiza danych w praktyce
Testowanie hipotez Jacek Szanduła.
Statystyczna analiza danych
Statystyczna analiza danych
STATYSTYKA – kurs podstawowy wykład 5 dr Dorota Węziak-Białowolska Instytut Statystyki i Demografii.
Przeprowadzenie badań niewyczerpujących, (częściowych – prowadzonych na podstawie próby losowej), nie daje podstaw do formułowania stanowczych stwierdzeń.
ze statystyki opisowej
Testy nieparametryczne – testy zgodności. Nieparametryczne testy istotności dzielimy na trzy zasadnicze grupy: testy zgodności, testy niezależności oraz.
STATYSTYKA – kurs podstawowy wykład 7 dr Dorota Węziak-Białowolska Instytut Statystyki i Demografii.
Rozkłady statystyk z próby dr Marta Marszałek Zakład Statystyki Stosowanej Instytut Statystyki i Demografii Kolegium.
Estymacja parametrów populacji. Estymacja polega na szacowaniu wartości parametrów rozkładu lub postaci samego rozkładu zmiennej losowej, na podstawie.
STATYSTYKA – kurs podstawowy wykład 6 dr Dorota Węziak-Białowolska Instytut Statystyki i Demografii.
Weryfikacja hipotez statystycznych „Człowiek – najlepsza inwestycja”
STATYSTYKA – kurs podstawowy wykład 8 dr Dorota Węziak-Białowolska Instytut Statystyki i Demografii.
STATYSTYKA – kurs podstawowy wykład 11
Estymacja parametryczna dr Marta Marszałek Zakład Statystyki Stosowanej Instytut Statystyki i Demografii Kolegium Analiz.
Testy nieparametryczne
Rozkład z próby Jacek Szanduła.
Statystyka matematyczna
Statystyka matematyczna
Statystyka matematyczna
Jednorównaniowy model regresji liniowej
Wnioskowanie statystyczne Weryfikacja hipotez statystycznych
Analiza niepewności pomiarów Zagadnienia statystyki matematycznej
Estymacja i estymatory
Analiza współzależności zjawisk
MIARY STATYSTYCZNE Warunki egzaminu.
Zapis prezentacji:

Statystyka i Demografia wykład 10 …rozkłady, kowariancja, korelacja, regresja, estymacja i weryfikacja hipotez… Statystyka i Demografia wykład 10 w tym wykładzie, (podobnie jak w poprzednich i następnych), wykorzystano doskonały podręcznik: Francuz P., Mackiewicz R., Liczby nie wiedzą, skąd pochodzą. Przewodnik po metodologii i statystyce nie tylko dla psychologów, Redakcja Wydawnictw Katolickiego Uniwersytetu Lubelskiego, 2007.

Populacja Estymacja Próba Estymacja zawiera metody wnioskowania statystycznego dotyczące sposobów oszacowań parametrów zmiennych losowych w całej populacji na podstawie danych uzyskanych z próby statystycznej To chcemy poznać Próba Estymacja Populacja Losowanie z populacji n - elementowej próby Tu dokonujemy pomiarów i obserwacji KISIM, WIMiIP, AGH

Statystyka Opisowa Parametrami statystycznymi (statystykami) nazywamy liczby umożliwiające sumaryczny opis zbiorowości. Parametry te tak dokładnie charakteryzują zbiorowość, że mogą być wykorzystane do porównywania różnych zbiorowości. Wyróżnia się następujące grupy parametrów statystycznych: Miary położenia (klasyczne i pozycyjne) Miary zmienności Miary asymetrii i koncentracji Graficzna interpretacja statystyk

Charakterystyki położenia KISIM, WIMiIP, AGH

Miary położenia Średnia Moda (dominanta): najczęściej występująca wartość cechy Kwantyle: Kwartyle, decyle, percentyle mediana (kwartyl drugi) - taką wartość cechy, że co najmniej połowa jednostek zbiorowości ma wartość cechy nie większą niż Me i jednocześnie połowa jednostek ma wartość cechy nie mniejszą niż Me. Czyli dystrybuanta empiryczna Fn(Me)  ½

Graficzne wyznaczanie mody

Miary rozproszenia KISIM, WIMiIP, AGH

Estymacja i estymatory Rozpatrywane dotychczas statystyki: średnia i częstość należą do najczęściej stosowanych w praktyce. W przypadku gdy statystyki używane są do szacowania (przybliżania) nieznanych parametrów rozkładu zmienne losowej noszą specjalną nazwę: Statystykę T(X1, X2 ,….., Xn ), służącą do oszacowania nieznanego parametru populacji nazywamy estymatorem. Dla konkretnych wartości próby X1=x1, X2=x2 , ….., Xn=xn liczbę T(X1, X2 ,….., Xn ) nazywamy wartością estymatora (estymatą).

Techniki wnioskowania statystycznego W statystyce matematycznej stosowane są dwie techniki wnioskowania: Estymacja polegająca na oszacowaniu z pewną dokładnością określonych wartości charakteryzujących rozkład badanej cechy np. częstości, wartości oczekiwanej, wariancji. Weryfikacja hipotez statystycznych polegająca na sprawdzeniu słuszności przypuszczeń dotyczących postaci rozkładu cechy (testy zgodności) bądź wartości jego parametrów (parametryczne testy istotności) Obie wymienione techniki uzupełniają się wzajemnie.

Estymacja parametryczna Podstawowym narzędziem szacowania nieznanego parametru jest estymator obliczony na podstawie próby. np. dla wartości oczekiwanej jest to średnia arytmetyczna. Liczba możliwych estymatorów konkretnego parametru rozkładu może być duża ale, bierze się pod uwagę tylko te, które posiadają określone właściwości (cechy). Estymator ma być zgodny, nieobciążony i najefektywniejszy. Ze względu na formę wyniku estymacji wyróżnimy Estymacja punktowa – gdy szacujemy liczbową wartość określonego parametru rozkładu cechy w całej populacji Estymacja przedziałowa – gdy wyznaczamy granice przedziału liczbowego, w których, z określonym prawdopodobieństwem, mieści się prawdziwa wartość szacowanego parametru.

Estymata i estymator Należy pamiętać, że prawdziwe wartości wymienionych parametrów pozostają zazwyczaj nieznane (podobnie jak sama funkcja gęstości rozkładu). Wielkości wyznaczane na podstawie próby są tylko ich oszacowaniami (estymatami). Dla odróżnienia parametru od estymatora, te ostatnie oznaczamy daszkiem lub zupełnie innym symbolem, np.: KISIM, WIMiIP, AGH

Cechy dobrego estymatora - Efektywność Efektywność – estymator jest tym efektywniejszy im mniejsza jest jego wariancja. Spośród wszystkich estymatorów, które są zgodne i nieobciążone wybieramy ten, który ma najmniejszą wariancję, jest najefektywniejszy.

Przykłady estymatorów punktowych Estymatorem zgodnym, nieobciążonym i najefektywniejszym dla wartości oczekiwanej w populacji jest średnia arytmetyczna Mediana wyznaczona z próby jest nieobciążonym ale mniej efektywnym od średniej arytmetycznej estymatorem wartości oczekiwanej

Przykłady estymatorów punktowych Niech m oznacza liczbę wyróżnionych elementów w próbie n elementowej (np. liczbę wyrobów wadliwych), wtedy statystyka będąca częstością w próbie jest estymatorem zgodnym, nieobciążonym i najefektywniejszym frakcji P w populacji

Przykłady estymatorów punktowych S2 jest estymatorem zgodnym ale obciążonym wariancji w całej populacji. Wskazówka: tego wzoru używamy obliczając wariancję z całej populacji, natomiast do estymacji na podstawie próbki należy wynik z próby pomnożyć przez współczynnik n/(n-1)

Obciążoność i nieobciążoność estymatora Odchylenie standardowe dane wzorem jest estymatorem obciążonym odchylenia standardowego w całej populacji, a nieobciążonym jest odchylenie obliczone z wzoru

Prawo Wielkich Liczb (PWL) Średnią w prostej próbie losowej X1, X2 , .. , Xn o liczności n nazywamy statystykę Prawo Wielkich Liczb: Niech X będzie zmienną losową o wartości oczekiwanej µX i skończonej wariancji σ2X<∞ i niech X1, X2 , .. ,Xn będzie prostą próbą losową z rozkładu zmiennej X. Wówczas dla dowolnie małej dodatniej liczby ε prawdopodobieństwo jest bliskie 1 dla dużych liczności próby n. KISIM, WIMiIP, AGH

Prawo Wielkich Liczb (PWL) Prawo Wielkich Liczb Bernoulliego: Jeżeli z dowolnej populacji X wylosuje się wiele próbek o tej samej liczebności n-elementowej i dla każdej z tych próbek obliczy się średnią arytmetyczną, to prawdopodobieństwo, że średnia z tych średnich X będzie taka sama jak średnia w populacji X, zbliża się do 1 wraz ze wzrostem liczebności (n) tych próbek. Wówczas dla dowolnie małej dodatniej liczby  i n  1

Centralne twierdzenie graniczne Jeśli X1, X2 ,….., Xn jest prostą próbą losową z rozkładu o wartości średniej  i skończonej wariancji 2 . Wówczas dla prób losowych o dużej liczebności rozkład standaryzowanej średniej jest bliski standardowemu rozkładowi normalnemu N(0,1), tzn. rozkład średniej X jest w przybliżeniu równy rozkładowi

Centralne twierdzenie graniczne W miarę jak wzrasta liczność próbki, rozkład statystyki testowej opartej na średniej zbliża się do rozkładu normalnego, niezależnie od rozkładu zmiennej, którą mierzymy (Fisher, 1928) Zatem dla dowolnych a i b (a  b) i zmiennej losowej Z o standardowym rozkładzie normalnym KISIM, WIMiIP, AGH

Centralne twierdzenie graniczne Badana jest zmienna losowa, która jest sumą niezależnych zmiennych losowych o jednakowym rozkładzie i takiej samej wartości oczekiwanej μ i skończonej wariancji σ2. Jeśli ilość składników rośnie, to zmienna ta zbiega do rozkładu normalnego. Czyli: Sn = X1 + X2 + . . . + Xn E[Xi] = μi (jest skończona) Var[Xi] = σi2 (jest skończona) to: ma rozkład normalny unormowany N(0, 1). KISIM, WIMiIP, AGH

Centralne twierdzenie graniczne przy wzroście liczności próby (liczności kolejno: 2,5,10,15 i 30) zmienia się rozkład średnich z próby dla zmiennej o bardzo niesymetrycznym (skośnym) rozkładzie, który wyraźnie odbiega od normalnego KISIM, WIMiIP, AGH

Centralne twierdzenie graniczne Online Statistics Education: An Interactive Multimedia Course of Study Developed by Rice University (Lead Developer), University of Houston Clear Lake, and Tufts University http://onlinestatbook.com KISIM, WIMiIP, AGH

Centralne twierdzenie graniczne Online Statistics Education: An Interactive Multimedia Course of Study Developed by Rice University (Lead Developer), University of Houston Clear Lake, and Tufts University http://onlinestatbook.com KISIM, WIMiIP, AGH

Rozkład średniej w prostej próbie losowej Średnią, w prostej próbie losowej X1, X2 ,….., Xn o liczności n, nazywamy statystykę Podana definicja jest szczególnym przypadkiem statystyki T(X1, X2 ,….., Xn) Średnia X jest zmienną losową, a x jest konkretną wartością z jednej konkretnej próby. Możemy wylosować kilka prób 100 elementowych i z każdej otrzymać inną wartość np. x=176,5; x =177,8 .....

Praktyczna realizacja przedziałów ufności dla , dla prostych prób losowych o licznościach n=25, z rozkładu N (0,1) dla poziomu ufności 1- = 0.9

Online Statistics Education: An Interactive Multimedia Course of Study Developed by Rice University (Lead Developer), University of Houston Clear Lake, and Tufts University http://onlinestatbook.com KISIM, WIMiIP, AGH

dla klasycznych parametrów statystycznych Przedziały ufności dla klasycznych parametrów statystycznych Estymacja przedziałowa polega na wyznaczeniu granic przedziału liczbowego, w którym, z określonym prawdopodobieństwem, równym (1-), zawiera się wartość szacowanego parametru

Estymacja przedziałowa Mając estymator punktowy i jego rozproszenie można określić położenie środka estymatora przedziałowego oraz taką szerokość tego ostatniego estymatora, by z zadaną dozą przekonania móc orzec, iż utworzony na podstawie zaobserwowanej próby losowej przedział zawiera prawdziwą wartość parametru. „zadana doza przekonania” w statystyce zastępuje się pojęciem „zadanego poziomu ufności” KISIM, WIMiIP, AGH

1- F(u1-α/2)= F(uα/2)= α/2 F(uα/2)= α/2 uα/2 u1-α/2 KISIM, WIMiIP, AGH

Estymacja przedziałowa P (d (X1,.... ,Xn)<  < g (X1,.... ,Xn)) = 1- Losowy przedział (d ,g ) nazywa się przedziałem ufności parametru  Granice przedziału ufności są funkcjami zmiennych losowych X1,.... ,Xn 1- nazywamy poziomem ufności (lub współczynnikiem ufności) Zwykle przyjmuje się 1- = 0,99 lub 0,95 lub 0,90 w zależności od rozpatrywanego zagadnienia Poziom istotności  Poziom ufności 1-

Przedział ufności dla wartości oczekiwanej, gdy znane jest odchylenie standardowe Cecha X ma w populacji rozkład normalny N(m, σ), odchylenie standardowe σ jest znane. Estymatorem m, uzyskanym MNW jest średnia arytmetyczna, która jest zmienną losową o rozkładzie N(m, σ/n ) Po standaryzacji otrzymuję zmienną U o rozkładzie N(0,1) gdzie: n jest liczbą elementów z próby losowej     oznacza średnią z próby losowej σ odchylenie standardowe populacji Przedział ufności dla wartości oczekiwanej m ma postać Poziom ufności

Problem minimalnej liczności próby Długość przedziału ufności wynosi Żądamy by maksymalny błąd oszacowania nie przekraczał zadanej z góry wartości d Z tej relacji wynika, że

Zadanie Wykonujemy pomiary pewnej cechy. Jak dużą liczbę pomiarów (n) należy przeprowadzić, aby prawdopodobieństwem (ufnością) wynoszącym 0,95 maksymalny błąd oceny nie przekraczał 0,02 j.m. Zakładamy, że odchylenie standardowe błędów pomiarów =0.1

Zadanie (rozw.) Kwantyle standardowego rozkładu normalnego N(0,1) KISIM, WIMiIP, AGH

Przedział ufności dla wartości oczekiwanej, gdy odchylenie standardowe jest nieznane Estymatorem , uzyskanym MNW jest średnia arytmetyczna, nie znamy σ, musimy zatem wybrać statystykę, która od σ nie zależy Statystyka t ma rozkład Studenta z n-1 stopniami swobody, nie zależy od parametru σ ale od parametru S, S jest odchyleniem standardowym obliczonym z próby.

Przedział ufności dla wartości oczekiwanej, gdy odchylenie standardowe jest nieznane Przedział ufności dla wartości oczekiwanej ma wtedy postać gdzie wartość t,n-1, jest kwantylem rzędu , z n-1 stopniami swobody Długość przedziału wynosi

Przedział ufności dla wartości oczekiwanej, gdy nieznany jest rozkład w populacji W praktyce często nie znany jest rozkład cechy w populacji i brak jest podstaw do przyjęcia, że jest on normalny. Wiadomo, że średnia arytmetyczna wyznaczona z próby o dowolnym rozkładzie jest zmienną losową o rozkładzie N(m, σ/n ), dlatego Nieznane σ można przybliżyć obliczonym z dużej próby odchyleniem standardowym S

Zadanie Dokonano 10 pomiarów ciśnienia wody na ostatnim piętrze bloku 15 piętrowego i okazało się, że średnie ciśnienie wynosiło 2,21 podczas gdy wariancja wyniosła 4,41. Znaleźć liczbowe wartości krańców przedziałów ufności dla wartości oczekiwanej przyjmując poziom ufności 1- = 0,95 1- = 0,90 1- = 0,98

Zadanie (rozw. a) Kwantyle rozkładu t-Studenta KISIM, WIMiIP, AGH

Kwantyle t1-(n), rzędu 1-, rozkładu Studenta o n stopniach swobody 0.6 0.75 0.9 0.95 0.975 0.99 0.995 0.9975 0.999 0.9995 1 0.325 1.000 3.078 6.314 12.706 31.821 63.657 127.321 318.31 636.62 2 0.289 0.816 1.886 2.920 4.303 6.965 9.925 14.089 22.327 31.598 3 0.277 0.765 1.638 2.353 3.182 4.541 5.841 7.453 10.214 12.924 4 0.271 0.741 1.533 2.132 2.776 3.747 4.604 5.598 7.173 8.610 5 0.267 0.727 1.476 2.015 2.571 3.365 4.032 4.773 5.893 6.869 6 0.265 0.718 1.440 1.943 2.447 3.143 3.707 4.317 5.208 5.959 7 0.263 0.711 1.415 1.895 2.365 2.998 3.499 4.029 4.785 5.408 8 0.262 0.706 1.397 1.860 2.306 2.896 3.355 3.833 4.501 5.041 9 0.261 0.703 1.383 1.833 2.262 2.821 3.250 3.690 4.297 4.781 10 0.260 0.700 1.372 1.812 2.228 2.764 3.169 3.581 4.144 4.587 11 0.697 1.363 1.796 2.201 2.718 3.106 3.497 4.025 4.437 12 0.259 0.695 1.356 1.782 2.179 2.681 3.055 3.428 3.930 4.318 13 0.694 1.350 1.771 2.160 2.650 3.012 3.372 3.852 4.221 14 0.258 0.692 1.345 1.761 2.145 2.624 2.977 3.326 3.787 4.140 15 0.691 1.341 1.753 2.131 2.602 2.947 3.286 3.733 4.073 16 0.690 1.337 1.746 2.120 2.583 2.921 3.252 3.686 4.015 17 0.257 0.689 1.333 1.740 2.110 2.567 2.898 3.222 3.646 3.965 18 0.688 1.330 1.734 2.101 2.552 2.878 3.197 3.610 3.922 19 1.328 1.729 2.093 2.539 2.861 3.174 3.579 3.883 20 0.687 1.325 1.725 2.086 2.528 2.845 3.153 3.552 3.850

Przedział ufności dla wariancji w populacji normalnej Przedział jest zbudowany w oparciu o statystykę 2=nS2/ σ2 , która ma rozkład 2 o n-1 stopniach swobody. przedział ufności dla wariancji

Przedział ufności dla wariancji w populacji normalnej Przedział jest zbudowany w oparciu o statystykę 2=ns2/ σ2 , która ma rozkład 2 o n-1 stopniach swobody. W rozkładzie 2 określa się dwie wartości , spełniające odpowiednio równości Z obu wzorów wynika zatem Po przekształceniu których otrzymujemy przedział ufności dla wariancji

Wyznaczyć liczbowe wartości krańców przedziałów ufności dla Zadanie Odchylenie standardowe  błędu przyrządu pomiarowego jest nieznane. Zakładamy, że rozkład błędów pomiarów jest rozkładem normalnym. Przeprowadzono n= 10 pomiarów i otrzymano następujące wyniki {7; 7,5; 8,5; 8; 6; 7,5; 6,5; 5,5; 7,5; 6 } Wyznaczyć liczbowe wartości krańców przedziałów ufności dla Wartości oczekiwanej Dla odchylenia standardowego Na poziomie ufności 1- = 0,95

Zadanie (rozw. b); szacowanie odchylenia standardowego KISIM, WIMiIP, AGH

Zadanie (rozw. b) Kwantyle rozkładu 2 KISIM, WIMiIP, AGH

Przedziały ufności dla proporcji p Opierając się na częstości skonstruujemy przedziały ufności dla proporcji p. Jeśli próba losowa niezależnych zmiennych o rozkładzie punktowym P(X=1)=1-P(X=0) = p jest dostatecznie liczna, by móc skorzystać z przybliżenia rozkładem N(0,1) , statystyki (*) Wówczas

Przedział ufności dla proporcji p Ważne jest aby pamiętać jakie są minimalne wymagania na liczność próby n i proporcję p, by móc rozkład podanej w (*) statystyki przybliżać rozkładem N(0,1)

Zastosowanie Agencja badająca w 2000 roku opinie Polaków na podstawie 1000 elementowej próby stwierdziła, że 57% popiera wejście Polski do Unii. Uznając, ze mamy do czynienia z rozkładem dwupunktowym skonstruujemy przedział ufności na poziomie 0,95 dla proporcji Polaków popierających wejście Polski do UE Próba o n=1000 jest dostatecznie liczna by skorzystać ze rozkładu statystyki (*) Przedział 95% ufności to [0,54,0,60], natomiast wielkość 0,57(1-0,57)/1000 = 0,00156 można uznać za błąd standardowy otrzymanej częstości, w ujęciu procentowym wynosi on około 1,6%

Wnioskowanie statystyczne Weryfikacja hipotez statystycznych

Londyn, 1710r. John Arbuthnot: od 82 lat w Londynie rodzi się więcej chłopców, niż dziewczynek… przypadek, czy tendencja? Sformułowanie hipotezy zerowej H0 : w Londynie rodzi się tyle samo kobiet co mężczyzn; pCH = pDZ = ½ Gdyby tak było, prawdopodobieństwo tego, że przez 82 lata rodziliby się głównie chłopcy wynosiłoby: czyli zero, a po przecinku 23 zera, a potem czwórka… KISIM, WIMiIP, AGH

Weryfikacja hipotez statystycznych Każde badanie naukowe rozpoczyna się od sformułowania problemu oraz najbardziej prawdopodobnego rozwiązania czyli hipotezy badawczej. Hipoteza powinna być tak sformułowana, by można ją ocenić przyjąć lub odrzucić. Hipotezy badawcze mogą dotyczyć: wartości analizowanych zmiennych: np. wartości średniej, wartości ekstremalnych ( mim, max), jednorodności - wariancji... różnicy pomiędzy wartościami określonej cechy w różnych grupach badawczych ( różnych populacjach): np. różnica w zarobkach pomiędzy kobietami i mężczyznami, albo różnice w liczbie białych krwinek u osób zdrowych i osób z zapaleniem wyrostka robaczkowego itp.. zależności pomiędzy badanymi zmiennymi np obecność na wykładach i wyniki sprawdzianów wiedzy rodzaju badanych zależności np zależność logarytmiczna, wykładnicza, liniowa... oceny charakteru rozkładu zmiennej losowej. Liczba pijanych kierowców na polskich drogach ma rozkład normalny.

Testy statystyczne Test statystyczny jest regułą postępowania, która każdej możliwej próbie przyporządkowuje decyzję przyjęcia lub odrzucenia hipotezy. Test statystyczny jest regułą rozstrzygającą jakie wyniki próby pozwalają uznać sprawdzaną hipotezę za prawdziwą a jakie za fałszywą Każda hipoteza statystyczna jest podzbiorem zbioru hipotez dopuszczalnych, hipoteza zerowa jest tą wyróżnioną hipotezą, która podlega weryfikacji, pozostałe hipotezy ze zbioru hipotez dopuszczalnych stanowią zbiór hipotez alternatywnych. Do weryfikacji hipotezy zerowej stosuje się testy statystyczne bazujące na określonych funkcjach testowych.

Podstawowe etapy procesu weryfikacji hipotez statystycznych Sformułowanie hipotezy zerowej: H0 i hipotezy alternatywnej: H1 Podjęcie decyzji co do poziomu istotności  (dopuszczalnej wielkości błędu II rodzaju) oraz liczebności próby (n) Określenie obszaru krytycznego i obszaru przyjęcia sprawdzanej hipotezy H0 (wyznaczenie wartości krytycznych np u, t,r  2,r itp., dla zakładanego poziomu istotności  i wybranej funkcji testowej Wybór testu weryfikującego H0 (funkcji testowej w zależności od rodzaju hipotezy i liczności próby statystycznej) i wyliczenie jej wartości. Podjęcie decyzji weryfikacyjnej o przyjęciu hipotezy zerowej lub odrzuceniu jej na rzecz hipotezy alternatywnej

Etapy wnioskowania statystycznego obliczenia własne postawienie hipotezy zerowej wybór testu i sprawdzenie spełnienia założeń obliczenie wartości funkcji testowej ustalenie (odczytanie z tablic) wartości krytycznych dla danego poziomu istotności podjęcie decyzji o przyjęciu lub odrzuceniu hipotezy H0 interpretacja otrzymanych wyników STATISTICA postawienie hipotezy zerowej wybór testu i sprawdzenie spełnienia założeń wprowadzenie danych podjęcie decyzji o przyjęciu lub odrzuceniu hipotezy H0 interpretacja otrzymanych wyników KISIM, WIMiIP, AGH

1. Sformułowanie hipotez H0 i H1 Parametryczne testy istotności Test dla wartości średniej w populacji generalnej Hipoteza sprawdzana (zerowa) dotyczy pewnego parametru H0: m=m0 przy jednej z hipotez alternatywnych H1: m≠m0 lub H1: m>m0 lub H1: m<m0 Hipoteza H0 : o równości średnich z n - elementowej próby i w populacji będzie zweryfikowana na podstawie wyników próby losowej. Za sprawdzian hipotezy H0 przyjmuje się określoną statystykę, zwaną także funkcją testową. Dla wartości oczekiwanej będzie to średnia arytmetyczną uzyskanych wyników z próby losowej.

Rozkłady średnich z nieskończenie wielu próbek rozkład średnich z populacji A prawdopodobieństwo otrzymania danego wyniku, jeśli uznać hipotezę zerową za prawdziwą błąd I rodzaju  rozkład średnich z populacji B błąd II rodzaju  KISIM, WIMiIP, AGH

2. Przyjęcie odpowiedniego poziomu istotności  oraz liczebności próby Przy podejmowaniu decyzji weryfikującej hipotezy możemy popełnić dwa rodzaje błędów Decyzja Hipoteza H0 prawdziwa fałszywa odrzucić błąd I rodzaju decyzja trafna  1- nie odrzucić błąd II rodzaju 1- 

Rodzaje błędów popełnianych przy weryfikacji hipotez statystycznych Błąd I rodzaju polega na odrzuceniu hipotezy zerowej, mimo że jest prawdziwa. Przyjmowany w procesie weryfikacji hipotezy poziom istotności jest równy prawdopodobieństwu popełnienia błędu I rodzaju, zwykle =0.05 lub 0.01 Błąd II rodzaju polega za przyjęciu za prawdziwą hipotezy H0 gdy ona w rzeczywistości jest fałszywa. Przykład H0- oskarżony jest niewinny H1 - oskarżony jest winien Błąd I rodzaju : sąd skazał niewinnego: H0 prawdziwa, ale ją odrzucono Błąd II rodzaju: sąd uwolnił winnego: H1 prawdziwa, a przyjęto H0, Tu błąd I rodzaju jest znacznie bardziej dotkliwy, dlatego należy zminimalizować prawdopodobieństwo jego popełnienia (czyli dostarczyć „niezbitych” dowodów)

Związek pomiędzy błędami I i II rodzaju: zmniejszanie wartości  pociąga wzrost wartości  H0: =m0 H1:  >m1 Przy przyjętym poziomie istotności , obszar krytyczny obejmuje wartości średnie A, gdy P (x A)=  Dla określenia obszaru  przyjmiemy następujący zestaw hipotez H0: =m0 H1:  = m1 >m0 H0: =m0 H1: =m1  

KISIM, WIMiIP, AGH

Moc testu Z przedstawionego rysunku widać, że nie jest możliwe jednoczesne minimalizowanie prawdopodobieństwa popełnienia obu błędów. Z wartością  związana jest moc testu, która jest określana jako prawdopodobieństwo odrzucenia hipotezy zerowej, gdy jest ona fałszywa, czyli wynosi 1- . Moc testu zależy od poziomu istotności , a także od postaci hipotezy alternatywnej i liczebności próby W statystyce praktycznie postępuje się podobnie jak w sądzie przyjmując zasadę domniemania prawdziwości hipotezy zerowej, co oznacza, że chcemy aby błąd I rodzaju nie często miał miejsce. Określając poziom istotności określamy granicę błędu I rodzaju, pamiętając że przyjmując niższą wartość  uzyskujemy wyższą wiarygodność hipotezy alternatywnej (jej przyjęcie jest jakby mocniej uzasadnione), ale będzie trudniej odrzucić hipotezę zerową. KISIM, WIMiIP, AGH

P(U  u1-/2 ) =  dwustronny obszar krytyczny 3. Określenie obszaru krytycznego i obszaru przyjęcia sprawdzanej hipotezy H0 Jeśli prawdziwa jest hipoteza zerowa, to wartość statystyki U nie powinna przekraczać pewnej wartości krytycznej u P(U  u1-/2 ) =  dwustronny obszar krytyczny P(U  u1- ) =  prawostronny obszar krytyczny P(U ≤ -u ) =  lewostronny obszar krytyczny KISIM, WIMiIP, AGH

H0: m=m0 H1: m<m0 P(U ≤ u ) =  lewostronny obszar krytyczny  u  KISIM, WIMiIP, AGH

H0: m=m0 H1: m>m0 P(U  u ) =  1-  u 1-  prawostronny obszar krytyczny KISIM, WIMiIP, AGH

H0: m=m0 H1: m≠m0 P (U  u 1-/2 ) =  dwustronny obszar krytyczny 1-  /2 /2 u 1- /2 KISIM, WIMiIP, AGH

4. Wybór testu weryfikującego H0 i wyliczenie statystyki testowej Rozważamy rozkład średnich z n-elementowej próby, jest to rozkład N(m0, σ/ ), o ile hipoteza H0 jest prawdziwa. Stąd statystyka U, określona wzorem ma rozkład N(0,1), Jeśli prawdziwa jest hipoteza zerowa , to wartość statystyki U nie powinna przekraczać pewnej wartości krytycznej u  oznacza obszar zbiór nietypowych wartości statystyki testowej pod warunkiem prawdziwości hipotezy zerowej KISIM, WIMiIP, AGH

Funkcje testowe dla dużej próby i dla małej, gdy nieznana jest wartość wariancji w populacji Duża próba Mała próba KISIM, WIMiIP, AGH

Podstawa do podjęcia decyzji weryfikacyjnej Jeżeli obliczona wartość funkcji testowej znajdzie się w obszarze krytycznym (np. f >A) , hipotezę H0 należy odrzucić i przyjąć hipotezę H1 W programach komputerowych decyzję podejmuje się na następującej podstawie jeśli p<   H0 odrzucamy, przyjmujemy H1 jeśli p    nie ma podstaw do odrzucenia H0  A KISIM, WIMiIP, AGH

Przykład realizowany z pomocą pakietu STATISTICA Dane z badań przeprowadzonych w 1996 roku dotyczące zarobków Polaków. Ankiety wysłano do 5000 pracowników wylosowanych przez GUS. Ankiety zwróciło 1255 osób. Arkusz zawiera następujące informacje o badanych osobach: Płeć Wykształcenie Wiek Staż pracy Płaca brutto Stawiam pod wątpliwość twierdzenie, że płeć nie ma wpływu na wysokość zarobków w Polsce, jeśli by tak było to nie powinno być różnic pomiędzy średnimi wartościami zarobków kobiet i mężczyzn. Hipotezą zerową jest zdanie: Zarobki mężczyzn i kobiet nie różnią się H0 : m1=m2 przy hipotezie alternatywnej H1 : m1 m2 KISIM, WIMiIP, AGH

KISIM, WIMiIP, AGH

Korelacje nieparametryczne Trzy najpowszechniejsze nieparametryczne współczynniki korelacji: R Spearmana tau Kendalla współczynnik gamma Warto zauważyć, że statystyka 2 obliczana dla dwudzielczych tabeli liczności również jest dokładną miarą współzależności dwóch (stabelaryzowanych) zmiennych, a w odróżnieniu od miar korelacji opisanych niżej, może być stosowana dla zmiennych jakościowych (tzn. wyrażonych na skali nominalnej). KISIM, WIMiIP, AGH

R Spearmana Przy obliczaniu R Spearmana (rs) zakłada się, że rozważane zmienne zostały zmierzone na skali porządkowej (rangowej), tzn. że indywidualne obserwacje mogą być zestawione w dwóch uporządkowanych szeregach. Ranga to kolejny numer obserwacji, uzyskany po uporządkowaniu obserwacji wg ich wartości. Rangi odzwierciedlają porządkowe relacje między poszczególnymi obserwacjami w próbie. W zależności od kolejności porządkowania wartości (rosnącej lub malejącej), większa ranga przypisywana jest większej lub mniejszej wartości Współczynnik R Spearmana można traktować podobnie jak współczynnik korelacji liniowej Pearsona, tj. w kategoriach procentu wyjaśnianej zmienności, tyle że R Spearmana jest wyliczany w oparciu o rangi. di oznaczają różnice między rangami odpowiadających sobie wartości cech n – liczba obserwacji liczba obserwacji KISIM, WIMiIP, AGH

 Kendalla -1 ≤ 3 * Kendall  - 2 * Spearman R ≤ 1 Przy stosowaniu tego współczynnika powinny być spełnione te same podstawowe założenia jak w przypadku R Spearmana. Podobna jest też ich moc statystyczna. Jednakże wielkości obu współczynników zwykle nie pokrywają się, gdyż ich podstawy logiczne oraz formuły obliczeniowe bardzo się różnią. Współczynniki te posiadają różną interpretację: współczynnik R Spearmana można traktować podobnie jak współczynnik korelacji liniowej Pearsona, z kolei współczynnik  Kendalla opiera się na prawdopodobieństwie, tzn. różnicy między prawdopodobieństwem tego, że dwie zmienne układają się w tym samym porządku w obrębie obserwowanych danych a prawdopodobieństwem, że ich uporządkowanie się różni. -1 ≤ 3 * Kendall  - 2 * Spearman R ≤ 1 KISIM, WIMiIP, AGH

 Kendalla Współczynnik  przyjmuje wartości z przedziału [-1;1], 1 - oznacza pełną zgodność uporządkowania, 0 - brak zgodności , a -1 - całkowitą ich przeciwstawność.  jest doskonałym narzędziem do opisu podobieństwa uporządkowania zbioru danych.

Gamma Statystyka gamma jest zalecana w przypadkach, gdy dane zawierają wiele powiązanych obserwacji (tzn. obserwacji o takich samych wartościach). W kategoriach podstawowych założeń jest ona odpowiednikiem R Spearmana lub tau Kendalla, natomiast pod względem interpretacji i obliczania jest bardziej podobna do współczynnika tau Kendalla. Opiera się również na prawdopodobieństwie; liczy się go jako różnicę między prawdopodobieństwem, że uporządkowanie dwóch zmiennych jest zgodne a prawdopodobieństwem, że jest niezgodne, podzieloną przez 1 minus prawdopodobieństwo występowania obserwacji powiązanych. W tym sensie jest bardziej odpowiednikiem tau Kendalla, prócz tego, że powiązania są wprost uwzględniane w obliczeniach. KISIM, WIMiIP, AGH

Współczynnik V - Cramera Zastosowanie: Przynajmniej jedna zmienna nominalna. Logika: Jeżeli jest silna korelacja mogę poprawnie w przybliżeniu oszacować wartości poszczególnych polach tablicy krzyżowej Etapy obliczania: 1. Obliczenie wartości oczekiwanych 2. Obliczenie współczynnika czynnika pomocniczego – chi kwadrat ( χ2 ) 3. Obliczenie wartości współczynnika 4. Interpretacja wyniku KISIM, WIMiIP, AGH

KISIM, WIMiIP, AGH

Porównanie wartości współczynników korelacji obliczonych wg Kendalla i Spearmana

Wielokrotne odpowiedzi

Weryfikacja hipotez dotyczących postaci nieznanego rozkładu - Testy zgodności . Podstawowe działania: Konstrukcja rozkładu empirycznego (najlepiej kilku rozkładów o różnej liczbie klas) Ocena podobieństwa rozkładu empirycznego do określonego rozkładu teoretycznego – postawienie hipotezy zerowej. Przyjęcie odpowiedniej statystyki, która może służyć za test do weryfikacji hipotezy zerowej

Test 2 Pearsona Niech cecha X ma rozkład o dystrybuancie F. Oś rzeczywistą dzielimy na r+1 rozłącznych przedziałów (-<a1<.......ar+1< ) Oznaczmy przez pj prawdopodobieństwo, że zmienna przyjmie wartość z przedziału Ij, tzn. pj=F(aj)- F(aj-1), j=1,2,...,r+1 Niech pj>0 dla każdego j. Liczba n*pj jest oczekiwaną liczbą obserwacji n-elementowej próbki Niech nj oznacza liczbę obserwacji , które rzeczywiście znalazły się w przedziale Ij

Test 2 Pearsona Suma kwadratów różnic (nj-n*pj,) tzn. może być miarą zgodności rozkładu zaobserwowanego w próbce z rozkładem hipotetycznym. Pearson udowodnił, że statystyka (*) ma, gdy n , rozkład chi-kwadrat o r stopniach swobody

Test 2 Pearsona Statystyka określona wzorem (*), znana jest pod nazwą test 2 Pearsona. Statystyka ta nie zależy od postaci dystrybuanty cechy X, a tylko od prawdopodobieństw pj= P(XIj), przy czym podział na przedziały Ij jest zupełnie dowolny. Taki sam układ prawdopodobieństw p1,p2,...,pr+1 może odpowiadać wielu różnym rozkładom zarówno typu ciągłego jak i skokowego, stąd test 2 powinien być używany do weryfikowania hipotezy dotyczącej układu prawdopodobieństw a nie postaci rozkładu cechy X w populacji. W teście 2 , hipoteza zerowa dotyczy klasy wszystkich rozkładów dla których P(XIj) = pj hipoteza alternatywna obejmuje klasę wszystkich tych rozkładów, dla których co najmniej dla jednego j zachodzi P(XIj)  pj

Weryfikacja hipotezy o zgodności rozkładu empirycznego z teoretycznym Dla danej próbki statystyka 2 obliczona ze wzoru (*), będzie mieć taką samą wartość dla wielu różnych rozkładów. Przyjęcie hipotezy zerowej oznacza, że każdy rozkład należący do danej klasy może mieć zastosowanie do opisu zjawiska. Kierując się wiedzą o zjawisku, najczęściej wybiera się jeden z rozkładów należących do hipotezy zerowej, stąd często upraszcza się problem stosowania testu 2 formułując hipotezę zerową jako przypuszczenie, że cecha X ma w populacji rozkład określonej postaci (czyli opisany konkretną dystrybuantą) Mając sprecyzowaną hipotezę zerową i wybrany test do weryfikacji dalej postępowanie przebiega jak w testach parametrycznych.

Algorytm realizacji testu 2 Pearsona Przyjmijmy poziom istotności , Odczytać z tablic rozkładu 2 wartość krytyczną 2 dla zadanej wartości  i r stopni swobody Obliczać wartość statystyki testowej 2, Porównać wartości 2obliczone z wartością krytyczną 2 Ponieważ zatem hipotezę H0 odrzucamy ilekroć stwierdzimy, że H0 przyjmujemy gdy

Komentarz do testu 2 Przedstawiona metoda weryfikacji hipotezy o postaci rozkładu jest oparta na granicznym rozkładzie statystyki (*), a zatem test 2 , ma zastosowanie od próbek o dużej liczności n Przyjmuje się, że test ten można stosować gdy npj  10 dla j=2,3,...,r oraz np1 i npr+1  5 W przypadku podziału na osi 0x na przedziały, gdzie pj=1/(r+1) jest dopuszczalne stosowanie testu 2 już dla niewielkich liczności (n=15..20), przy r stopniach swobody oraz poziomie istotności =0,05

Zastosowania testu 2 – przykład 1 Przeprowadzono obserwacje dotyczące wypadków drogowych na określonym terenie, spowodowanych przez kierowców będących w stanie nietrzeźwym. Wyniki: Pn Wt Śr Cz Pt So N 19 15 16 14 13 18 17 Na poziomie  = 0,05 zweryfikować hipotezę, że dla każdego dnia tygodnia jest takie samo prawdopodobieństwo wypadku spowodowanego przez kierowcę będącego w stanie nietrzeźwym.

Wykonanie testu 2obliczone=(9+1+0+4+9+4+1+)/16 = 1,75 Dla  = 0,05 oraz r=6 stopni swobody znajduję w tablicach 2 = 12,592 obliczam wartość statystyki 2 według wzoru (*) , przy czym przyjmuję n=112 p1=p2=...p7=1/7 npj=112/7=16 liczności nj biorę z tabelki i obliczam 2obliczone=(9+1+0+4+9+4+1+)/16 = 1,75 Ponieważ 2obliczone = 1,75 < 2 = 12,592, zatem nie ma podstaw do odrzucenia hipotezy zerowej, zatem utwierdziliśmy się w przekonaniu, że prawdopodobieństwo spowodowania wypadku na badanym terenie przez nietrzeźwego kierowcę jest jednakowe dla każdego dnia tygodnia.

Zastosowania testu 2 –przykład 2

H0: Zmienna losowa ma rozkład normalny H1: Zmienna losowa ma rozkład inny niż normalny

Odrzucamy hipotezę zerową H0 (ponieważ p < α), a zatem zmienna losowa nie ma rozkładu normalnego.

H0: Zmienna losowa ma rozkład lognormalny H1: Zmienna losowa ma rozkład inny niż lognormalny Lognormalny

Lognormalny Dopasowanie ? Nie ma podstaw do odrzucenia H0 (ponieważ p > α), a zatem zmienna losowa ma rozkład lognormalny.

Weryfikacja hipotezy o zgodności rozkładu empirycznego z teoretycznym Mając sprecyzowaną hipotezę zerową i wybrany test do weryfikacji dalej postępowanie przebiega jak w testach parametrycznych. Oblicza się wartość statystyki testowej, i porównuje z wartością krytyczną 2 odczytaną z tablic rozkładu chi-kwadrat dla zadanej wartości  przy r stopniach swobody. Ponieważ Zatem hipotezę H0 odrzucamy ilekroć stwierdzimy, że

Przykład badania zgodności z rozkładem normalnym W grupie 192 chorych wykonano pomiar pewnego parametru biochemicznego (PB) i uzyskano następujące wyniki postawiono hipotezę H0, że parametr PB ma rozkład normalny N (, ) z danych empirycznych obliczono estymatory parametrów rozkładu i sformułowano następującą hipotezę H0: parametr PB ma rozkład normalny obliczono wartości statystyki 2 wartość PB 5 5,5 6,5 7,5 8,5 9,5 10,5 11,5 12,5 13,5 14,5 15 liczba chorych 4 2 11 18 27 32 35 24 20 13 3

Przykład badania zgodności z rozkładem normalnym - dokończyć Zakres PB ni pi npi c2 <6 6 0,03407 6,5086 0,04472 6-7 11 0,0509 9,78 0,15943 7-8 18   8-9 27 9-10 32 10-11 35 11-12 24 12-13 20 13-14 13 >14 Razem 192 1,74252

Przykład badania zgodności z rozkładem normalnym – wskazówki do obliczeń Mamy: n=192 ; Obliczamy x śr = 10,044; s2= 4,91557; s=2,217108 P(6X<7)=F(7)-F(6) = 0,050954 F(7)=  ((7-10,044)/2,217108))= (-1,372959)= 1- 0,91466 =0,085334 F(6) =  ((6-10,044)/2,217108))= (-1,823997)=1-0,96562 = 0,03438 p2= 0,050954 n*p2=9,78 c2obliczone=1,74 < c2kryt=14,067 c2kryt odczytano z tablic rozkładu c2 dla  =0.05 i r=7 (u nas r=10-2-1, bo liczba klas równa się 10 i dwa parametry rozkładu: średnia i wariancja, były obliczone)

Jak to się liczy w Statistica

Jak to się liczy w Statistica

Z tabeli liczności

Testy normalności w pakiecie Statistica

Testy normalności w pakiecie Statistica

Podstawa do podjęcia decyzji weryfikacyjnej Jeżeli obliczona wartość funkcji testowej znajdzie się w obszarze krytycznym (np. f >A) , hipotezę H0 należy odrzucić i przyjąć hipotezę H1 W programach komputerowych decyzję podejmuje się na następującej podstawie jeśli p<   H0 odrzucamy, przyjmujemy H1 jeśli p    nie ma podstaw do odrzucenia H0  t KISIM, WIMiIP, AGH

Podstawa do podjęcia decyzji weryfikacyjnej Jeżeli obliczona wartość funkcji testowej znajdzie się w obszarze krytycznym (tobliczone) , hipotezę H0 należy odrzucić i przyjąć hipotezę H1 p<   odrzucamy H0 , przyjmujemy H1  t tobliczone p KISIM, WIMiIP, AGH

Przypisywanie zmiennym ilościowym wartości jakościowych - zmienne skategoryzowane W wielu badaniach jest uzasadnione zastępowanie wartości liczbowych nazwami lingwistycznymi, np. Zmienna ilościowa przyjmuje zaledwie kilka wartości Przedziały wiekowe Należy pamiętać , że od chwili podjęcia decyzji o zmianie typu zmiennej z ilościowego na jakościowy pozbywamy się możliwości stosowania metod dla danych liczbowych Traktowanie zmiennych ilościowych jako jakościowe może usprawiedliwiać cel badań – badanie niezależności zmiennych lub ich zależności, w tym celu najczęściej posługujemy się tablicami kontyngencji

Przykład Wykonano 100 rzutów kostką do gry i otrzymano Czy istnieją podstawy do odrzucenia hipotezy, że rzuty wykonano uczciwą kostką? Jeśli jest uczciwa, to mamy rozkład jednostajny , gdzie pi0=1/6, i=1,..,6 Wtedy npi = 100*1/6 = 16,66 Q=[ (16-16,66)2+ (19 -16,66)2 +(9 -16,66)2 + (17-16,66)2 + (25 -16,66)2 (14-16,66)2]/16,66 = 8,48 Odczytane z tablic 2dla =0,05 i 5 stopni swobody wynosi 11,070 zatem nie ma podstaw do odrzucenia hipotezy zerowej xi 1 2 3 4 5 6 ni 16 19 9 17 25 14

Uwagi do testu zgodności Nie wolno mylić istotności statystycznej z istotnością praktyczną. Im większa liczność próby tym większa jest czułość testu, czyli skłonność do odrzucenia hipotezy zerowej, gdy prawdziwy rozkład jest tylko nieznacznie (nieistotnie) różny postulowanego w hipotezie (teoretycznego) . Stosowanie tego testu zgodności z rozkładem ciągłym jest przedsięwzięciem kontrowersyjnym, ponieważ punktem wyjścia do konstrukcji testu jest utrata informacji związana z koniecznością dyskretyzacji. Dlatego stosowanie tego testu jest zalecane dopiero wtedy gdy próba jest bardzo liczna, a rozkład empiryczny przypomina gładki rozkład ciągły. Są też inne testy zgodności, np w pakiecie Statistica, które można stosować w mniej licznych próbkach.

Testowanie złożonej hipotezy o zgodności Jeśli postulowany (teoretyczny) rozkład prawdopodobieństwa {p1 0, p20,….,pm0} zależy od nieznanych parametrów, np. parametru , czyli jest {p1 0(), p20 (), ….,pm0 (), } , który może być inny dla różnych wartości parametru . Wtedy nie interesuje nas wartość parametru (), weryfikujemy hipotezę o zgodności rozkładu z rodziną rozkładów zdefiniowanych przez , Hipoteza zerowa ma wtedy postać H0: pj= pj0 (),  i =1,2,...,m;

Przykład Jeśli teoria Mendla losowego tworzenia się genotypów potomstwa jest słuszna i w populacji występują genotypy AA, Aa, aa, Gen A stanowi ułamek , wszystkich genów Gen a stanowi ułamek 1-, wszystkich genów to populacja o proporcji genotypów AA, Aa, aa, 2; 2(1- ); (1-)2 pozostaje w stanie równowagi (generacja potomków stanowi populację o tej samej proporcji genotypów. H0: p1 0()= 2; p20 ()= 2(1- ); pm0 ()= (1-)2 ,

Przykład cd Funkcja wiarygodności ma postać Typ AA Aa aa ni 110 235 155 Funkcja wiarygodności ma postać (2 )n1* 2(1- )]n2 [(1-)2]n3 Po zlogarytmowaniu funkcji wiarygodności obliczamy estymator  = (2n1+n2)/2n=0,455 Q= (110-103,51)2..... = 1,369.

Wnioskowanie o zmiennych jakościowych. Testowanie zgodności Zmienna X ma m wartości (kategorii), P(X= xi )= pi prawdopodobieństwo wystąpienia xi wynosi pi. Rozkładem empirycznym zmiennej X jest {p1 , p2,….,pm} Dany jest pewien teoretyczny (ustalony ) rozkład prawdopodobieństwa {p1 0, p20,….,pm0}, Sprawdzam, czy empiryczny rozkład jest taki sam jak zakładany teoretyczny H0: pj= pj0  i =1,2,...,m; H1: H0 jest fałszywa Funkcja testowa ma w przybliżeniu rozkład 2 z m-1 stopniami swobody

Testowanie niezależności H0: pij = pi. * p.j H1: hipoteza H0 jest fałszywa Funkcja testowa zbliża się do rozkładu 2 o (m-1)*(k-1) stopniach swobody, które chociaż mają tę samą wartość, jednak obliczono je inaczej

Analiza studenckiej oceny kadry – test jednorodności Pewna uczelnia prowadzi ocenę programów i kadry. Testujemy hipotezę, o równości rozkładów A1,A2,A3 H0: p1j=p2j=….=pkj   bnzd nzd mrn db bdb A1 17 25 21 9 10 82 A2 11 29 18 12 79 A3 6 7 39 84 34 61 50 60 40 245

Tablice kontyngencji tabele liczebności, tabele krzyżowe albo rozdzielcze,  a w przypadku dwóch wskaźników także dwudzielcze    y1 y2 …. ym x1 n11 n12 n1m x2 n21 n22 n2m xk nk1 nk2 nkm Czy musiało dojść do katastrofy Challengera w 1986r. Analiza danych z wcześniejszych 24 startów   brak usterek wystąpiła usterka(i) ≤ 65oF 4 > 65oF 17 3   brak usterek wystąpiła usterka(i) ≤ 65oF 0% 17% > 65oF 70% 13%

Czy czuje się bezpiecznie? Przykład Do badania wybrano 500 mieszkańców Rzeszowa, których poproszono o określenie, czy czują się bezpiecznie. Wyniki odpowiedzi respondentów zostały przedstawione w tabeli niezależności. Sprawdź, czy istnieje zależność między płcią respondenta a poczuciem jego bezpieczeństwa, przyjmując poziom istotności alfa= 0,05. Płeć Czy czuje się bezpiecznie? RAZEM Tak Nie Mężczyzna 30 80 110 Kobieta 170 220 390 200 300 500 KISIM, WIMiIP, AGH

Analiza zależności pomiędzy zmiennymi jakościowymi

Porównanie dwóch wskaźników struktury (proporcji) Zweryfikujmy hipotezę o większym procencie wyzdrowień w grupie psów leczonych nową szczepionką Z menu Statystyka wybieramy opcję Statystyki podstawowe i tabele. Następnie w otwierającym się oknie wybieramy opcję Inne testy istotności. KISIM, WIMiIP, AGH