Statystyka Wykłady dla II rok Geoinformacji rok akademicki 2012/2013 Wykład 7 i 8: Wnioskowanie statystyczne, estymacja punktowa i przedziałowa, weryfikacja hipotez statystycznych, test dla średnich i wariancji, ANOVA, MANOVA
Wnioskowanie statystyczne - polega na uogólnianiu wyników otrzymanych na podstawie próby losowej na całą populację generalną, z której próba została pobrana Wnioskowanie statystyczne dzieli się na: Estymację – szacowanie wartości parametrów lub postaci rozkładu zmiennej na podstawie próby – na podstawie wyników próby formułujemy wnioski dla całej populacji Weryfikację hipotez statystycznych – sprawdzanie określonych założeń sformułowanych dla parametrów populacji generalnej na podstawie wyników z próby – najpierw wysuwamy założenie, które weryfikujemy na podstawie wyników próby
Estymator – wielkość (charakterystyka, miara), obliczona na podstawie próby, służąca do oceny wartości nieznanych parametrów populacji generalnej. Najlepszym z pośród wszystkich estymatorów parametru w populacji generalnej jest ten, który spełnia wszystkie właściwości estymatorów (jest równocześnie nieobciążony, zgodny, efektywny, dostateczny).
Definicja estymatora Niech zmienna losowa X ma funkcję gęstości prawdopodobieństwa fX zależną od m parametrów i i= 1,2,…,m. Jeśli zostało wygenerowanych (zmierzonych) N liczb losowych x1, x2, …, xN , będących wartościami zmiennej losowej X, wówczas można skonstruować m funkcji tych liczb, Si (x1, x2, …, xN), i=1,2,…,m których można użyć do wyznaczenia parametrów i. Funkcje Si nazywamy estymatorami parametru i.. Estymator nazywamy nieobciążonym, gdy dla każdego N jego wartość oczekiwana E(Si) jest równa parametrowi i. Różnicę B(Si)=E(Si)- i nazywamy obciążeniem (bias)
Estymacja parametrów Mając dane n wektorów pobranych z pewnego wielowymiarowego rozkładu możemy oszacować jego parametry w następujący sposób: Estymator wartości oczekiwanej: Estymator macierzy kowariancji o największej wiarygodności : Estymator nieobciążony macierzy kowariancji:
Estymacja przedziałowa polega na budowie przedziału zwanego przedziałem ufności, który z określonym prawdopodobieństwem będzie zawierał nieznaną wartość szacowanego parametru gdzie: Q – nieznany parametr populacji generalnej, końce przedziałów (dolna i górna granica przedziału), będące funkcją wylosowanej próby
Przedział ufności Niech cecha X ma rozkład w populacji z nieznanym parametrem θ. Z populacji wybieramy próbę losową (X1, X2, ..., Xn). Przedziałem ufności (θ – θ1, θ + θ2) o współczynniku ufności 1 - α nazywamy taki przedział (θ – θ1, θ + θ2), który spełnia warunek: P(θ1 < θ < θ2) = 1 − α gdzie θ1 i θ2 są funkcjami wyznaczonymi na podstawie próby losowej. Podobnie jak w przypadku estymatorów definicja pozwala na dowolność wyboru funkcji z próby, jednak tutaj kryterium wyboru najlepszych funkcji narzuca się automatycznie - zazwyczaj będziemy poszukiwać przedziałów najkrótszych.
Współczynnik ufności 1 - α jest wielkością, którą można interpretować w następujący sposób: jest to prawdopodobieństwo, że rzeczywista wartość parametru θ w populacji znajduje się w wyznaczonym przez nas przedziale ufności. Im większa wartość tego współczynnika, tym szerszy przedział ufności, a więc mniejsza dokładność estymacji parametru. Im mniejsza wartość 1 - α, tym większa dokładność estymacji, ale jednocześnie tym większe prawdopodobieństwo popełnienia błędu. Wybór odpowiedniego współczynnika jest więc kompromisem pomiędzy dokładnością estymacji a ryzykiem błędu. W praktyce przyjmuje się zazwyczaj wartości: 0,99; 0,95 lub 0,90, zależnie od parametru.
Przedział ufności dla wartości oczekiwanej (średniej) – rozkład normalny Jeśli cecha ma w populacji rozkład normalny N(m, σ), przy czym odchylenie standardowe σ jest znane. Przedział ufności dla parametru m tego rozkładu ma postać: n to liczebność próby losowej oznacza średnią z próby losowej σ to odchylenie standardowe z próby uα jest statystyką, spełniającą warunek: P( − uα < U < uα) = 1 − α gdzie U jest zmienną losową o rozkładzie normalnym N(0, 1). oraz to kwantyle rzędów odpowiednio i rozkładu N(0, 1)
Przedział ufności dla wariancji Przedział ufności dla wariancji w populacji o rozkładzie normalnym N(m, σ) wyznaczamy ze wzoru gdzie: n to liczebność próby losowej s to odchylenie standardowe z próby i to statystyki spełniające odpowiednio równości: gdzie χ2 ma rozkład chi-kwadrat z n - 1 stopniami swobody i
Przykład - Minimalna liczebność próby Jeśli chcemy oszacować parametr z określoną dokładnością d, możemy, po odpowiednich przekształceniach wzorów na przedziały ufności, wyznaczyć liczebność próby losowej potrzebną do osiągnięcia zakładanej dokładności. Przykład: Niech wzrost wszystkich osób w Polsce ma rozkład normalny z odchyleniem standardowym 25,28 cm. Obliczmy ile osób wystarczy zmierzyć, aby z prawdopodobieństwem 95% wyznaczyć średni wzrost z dokładnością do 5 cm. Jeśli chcemy uzyskać dokładność 5 cm, należy zadbać o to, aby połowa długości przedziału ufności była mniejsza lub równa niż 5 cm. Ze wzoru na przedział ufności dla rozkładu normalnego o znanym odchyleniu standardowym wynika, że dokładność estymacji powinna spełniać zależność:
Mamy więc: Podstawiając do wzoru wartości σ = 25,28; d = 5 cm; u = 1,96 (wartość obliczona na podstawie tablic rozkładu normalnego lub w matlabie u =norminv(1-/2,0,1) ) uzyskujemy minimalną wielkość próby na poziomie n=99.
Poziom istotności Poziom istotności - jest to prawdopodobieństwo popełnienia błędu I rodzaju (zazwyczaj oznaczane symbolem α). Określa również maksymalne ryzyko błędu, jakie badacz jest skłonny zaakceptować. Wybór wartości α zależy natury problemu i od tego jak dokładnie chce on weryfikować swoje hipotezy, najczęściej przyjmuje się α = 0,05, 0,03 lub 0,01. Błąd pierwszego rodzaju (false positive) - w statystyce pojęcie z zakresu weryfikacji hipotez statystycznych - błąd polegający na odrzuceniu hipotezy zerowej, która w rzeczywistości jest prawdziwa. Błąd pierwszego rodzaju znany też jest jako: błąd pierwszego typu, błąd przyjęcia lub alfa-błąd. Oszacowanie prawdopodobieństwa popełnienia błędu pierwszego rodzaju oznaczamy symbolem α i nazywamy poziomem istotności testu.
Weryfikacja hipotez statystycznych Weryfikacja hipotez statystycznych jest drugim, obok estymacji statystycznej, sposobem uogólniania wyników losowej próby na populacje z której próba pochodzi. Polega ona na sprawdzaniu przypuszczeń na temat rozkładów statystycznych jednej lub wielu zmiennych w populacji. Podobnie jak w przypadku estymacji, wnioskowanie z próby o populacji nie jest i nie może być niezawodne. Będzie można jednak oceniać prawdopodobieństwa popełnienia błędów związanych ze stosowaną metodą weryfikacji hipotez. Hipotezą statystyczną nazywa się dowolne przypuszczenie dotyczące nieznanego rozkładu statystycznego jednej zmiennej lub łącznego rozkładu wielu zmiennych w populacji.
Przebieg procedury weryfikacyjnej Wyróżnia się hipotezy parametryczne dotyczące nieznanych wartości parametrów rozkładu statystycznego oraz hipotezy nieparametryczne, które są przypuszczeniami na temat klasy rozkładów do których należy rozkład statystyczny w populacji. Przebieg procedury weryfikacyjnej 1. Sformułowanie hipotezy zerowej i alternatywnej Hipoteza zerowa (H0) - Jest to hipoteza poddana procedurze weryfikacyjnej, w której zakładamy, że różnica między analizowanymi parametrami lub rozkładami wynosi zero. Przykładowo wnioskując o parametrach hipotezę zerową zapiszemy jako: H0: θ1 = θ2 . Hipoteza alternatywna (H1) - hipoteza przeciwstawna do weryfikowanej. Możemy ją zapisać na trzy sposoby w zależności od sformułowania badanego problemu: H1: θ1 ≠ θ2 H1: θ1 > θ2 H1: θ1 < θ2
2. Wybór statystyki testowej Budujemy pewną statystykę W, która jest funkcją wyników z próby losowej W = f(x1, x2, ..., xn) i wyznaczamy jej rozkład przy założeniu, że hipoteza zerowa jest prawdziwa. Funkcję W nazywa się statystyką testową lub funkcją testową. 3. Określenie poziomu istotności α Na tym etapie procedury weryfikacyjnej przyjmujemy prawdopodobieństwo popełnienia błędu I rodzaju, który polega na odrzuceniu hipotezy zerowej wtedy, gdy jest ona prawdziwa. Prawdopodobieństwo to jest oznaczane symbolem α i nazywane poziomem istotności. Na ogół przyjmujemy prawdopodobieństwo bliskie zeru, ponieważ chcemy aby ryzyko popełnienia błędu było jak najmniejsze. Najczęściej zakładamy, że poziom istotności α≤ 0,1 (np. α=0,01 ; α=0,05 ; α=0,1)
4. Wyznaczenie obszaru krytycznego testu Obszar krytyczny - obszar znajdujący się zawsze na krańcach rozkładu. Jeżeli obliczona przez nas wartość statystyki testowej znajdzie się w tym obszarze to weryfikowaną przez nas hipotezę Ho odrzucamy. Wielkość obszaru krytycznego wyznacza dowolnie mały poziom istotności α, natomiast jego położenie określane jest przez hipotezę alternatywną. Obszar krytyczny od pozostałej części rozkładu statystyki odzielony jest przez tzw. wartości krytyczne testu (w), czyli wartości odczytane z rozkładu statystyki przy danym α, tak aby spełniona była relacja zależna od sposobu sformułowania H1: P{|w|≥w} = α gdy H1: θ1 ≠ θ2 (obszar dwustronny) P{w ≥w} = α gdy H1: θ1 > θ2 (obszar prawostronny) P{w ≤w} = α gdy H1: θ1 < θ2 (obszar lewostronny)
5. Obliczenie statystyki na podstawie próby Wyniki próby opracowujemy w odpowiedni sposób, zgodnie z procedurą wybranego testu i są one podstawą do obliczenia statystyki testowej. Większość statystyk testowych, mających dokładny rozkład normalny, t-Studenta lub graniczny rozkład normalny, obliczamy w następujący sposób: gdzie: W - Statystyka testowa a - Statystyka obliczona z próby b - Hipotetyczna wartość parametru(ów) c - Odchylenie standardowe rozkładu statystyki
6. Podjęcie decyzji Wyznaczoną na podstawie próby wartość statystyki porównujemy z wartością krytyczną testu. Jeżeli wartość ta znajdzie się w obszarze krytycznym to hipotezę zerową należy odrzucić jako nieprawdziwą. Stąd wniosek, że prawdziwa jest hipoteza alternatywna. Jeżeli natomiast wartość ta znajdzie się poza obszarem krytycznym, oznacza to, że brak jest podstaw do odrzucenia hipotezy zerowej. Stąd wniosek, że hipoteza zerowa może, ale nie musi, być prawdziwa.
Test dla średniej Hipotezę zerową i alternatywną oznaczamy w następujący sposób: Ho: μ = μo Zakłada ona, że nieznana średnia w populacji μ jest równa średniej hipotetycznej μo H1: μ ≠ μo lub H1: μ > μo lub H1: μ < μo Jest ona zaprzeczeniem Ho, występuje w trzech wersjach w zależności od sformułowania badanego problemu. Sprawdzianem hipotezy jest statystyka testowa, która jest funkcją wyników próby losowej. Postać funkcji testowej (tzw. statystyki) zależy od: rozkładu cechy w populacji znajomości wartości odchylenia standardowego w populacji liczebności próby Biorąc pod uwagę powyższe przypadki, założoną przez nas hipotezę możemy sprawdzić za pomocą trzech testów:
1. Jeżeli populacja ma rozkład normalny N(μ,σ) o nieznanej średniej μ i znanym odchyleniu standardowym σ, natomiast liczebność próby n jest dowolna, wtedy statystyka ma postać: gdzie: m - średnia z próby Jeżeli Ho jest prawdziwa, to statystyka testowa Z ma rozkład asymptotycznie normalny. Wartość statystyki, którą obliczymy korzystając z powyższego wzoru, oznaczamy jako z. Następnie porównujemy ją z wartością krytyczną testu z , którą możemy odczytać z tablic standaryzowanego rozkładu normalnego, uwzględniając poziom istotności α. Decyzję o odrzuceniu Ho podejmujemy, jeżeli wartość statystyki znajduje się w obszarze krytycznym. Jeżeli natomiast wartość ta znajdzie się poza obszarem krytycznym, nie ma wtedy podstaw do odrzucenia Ho.
2. Jeżeli rozkład populacji jest dowolny, o nieznanej średniej μ i nieznanym odchyleniu standardowym σ, natomiast liczebność próby jest n > 30, wtedy statystyka ma postać: Jeżeli Ho jest prawdziwa, to statystyka testowa ma rozkład asymptotycznie normalny. 3. Jeżeli rozkład populacji jest normalny N(μ,σ), o nieznanej średniej μ i nieznanym odchyleniu standardowym σ, natomiast liczebność próby jest n < 30, wtedy statystyka ma postać: Jeżeli Ho jest prawdziwa, to statystyka testowa ma rozkład t-Studenta o liczbie stopni swobody ν = n-1. Wartość statystyki, którą obliczymy korzystając z powyższego wzoru, oznaczamy jako t. Następnie porównujemy ją z wartością krytyczną testu t, którą odczytujemy z tablic rozkładu t-Studenta przy założonym poziomie istotności α oraz liczbie stopni swobody ν = n-1.
Testy dla jednej wariancji Porównujemy wariancję w populacji z „wzorcową” wartością o2 Hipotezy mają postać: Ho: 2= o2 H1: postać hipotezy alternatywnej zależy od sformułowania zagadnienia: (a) 2> o2 (b) 2< o2 (c) 2 o2 Postać statystyki i dalszy przebieg testu zależy od rozmiaru próby.
Próby małe Wyznaczamy wartość statystyki s2 jest tutaj wariancją z próby a n – liczebnością próby. Statystyka ta ma rozkład chi-kwadrat - zatem wartość krytyczną kryt2 odczytujemy z tablic rozkładu chi-kwadrat dla v = n − 1 stopni swobody i dla poziomu istotności gdy hipoteza alternatywna H1 ma postać (a), w przypadku (b) – odczytujemy z tablic w przypadku (c) - odczytujemy dwie wartości: oraz Przedział krytyczny W przypadku (a) jest prawostronny, czyli gdy 2 > kryt2 odrzucamy H0, w przypadku przeciwnym – nie ma podstaw do jej odrzucenia. W przypadku (b) – przedział krytyczny jest lewostronny (dla 2 <kryt2 odrzucamy H0), W przypadku (c) – przedział krytyczny jest obustronny.
Próby duże Dla liczebności próby n > 30 możemy przekształcić wyznaczoną w poprzednim punkcie statystykę chi-kwadrat w statystykę z o rozkładzie normalnym obliczając: W powyższym wzorze χ2 oraz v = n − 1 oznaczają statystykę chi-kwadrat i jej liczbę stopni swobody wyznaczone tak, jak w poprzednim paragrafie (dla prób małych). Wartości krytyczne znajdujemy z tablic dystrybuanty rozkładu normalnego.Jeżeli Fn(z) jest dystrybuantą standardowego rozkładu normalnego, a Fn-1(z) - funkcją odwrotną do dystrybuanty, natomiast α - założonym poziomem istotności – to odczytujemy: dla przypadku (a) w przypadku (b) w przypadku (c) mamy 2 wartości graniczne: oraz zkryty2 = − zkryt1
Inne testy wariancji Testy dla dwóch wariancji Testy dla dwóch prób niezależnych Testy dla dwóch prób zależnych Testy dla wielu wariancji
Analiza wariancji ANOVA - Analysis of Variance Sir Ronald Aylmer Fisher 1890-1962 Statistical Methods for Research Workers 1925
mamy do czynienia z pojedynczym porównaniem Po co? W teście t prawdopodobieństwo popełnienia błędu pierwszego rodzaju wynosi α ale jedynie wtedy gdy mamy do czynienia z pojedynczym porównaniem
Po co? Przy 5 grupach (i 10 porównaniach) α wzrośnie z 0,05 do 0,40 (P = 1 - 0,9510 = 1 - 0,599 = 0,401) Przy 10 grupach (i 45 porównaniach) α wzrośnie z 0,05 do 0,90 (P = 1 – 0,9545 = 1 – 0,099 = 0,900) Co to oznacza ?
ANOVA - Analysis of Variance Jak sama nazwa wskazuje polega na analizie wariancji (a dokładniej źródeł wariancji) w próbie (którą w ramach badań pobraliśmy z populacji)
Analiza wariancji : Pozwala ustalić wpływ przynależności jednostki do określonej grupy na wartość badanej zmiennej. Możemy porównywać więcej niż dwie grupy. Pozwala na wprowadzenie więcej niż jednego kryterium klasyfikacji. Umożliwienie zmierzenia nie tylko istotności różnicy, ale również jej siły.
Jednoczynnikowa ANOVA
Analiza Wariancji Hipoteza zerowa H0 : Średnie w populacji są równe m1 = m2 = m3 = m4 Hipoteza alternatywna H1 : Co najmniej jedna para średnich nie jest sobie równa m1 ≠ m2 ≠ m3 ≠ m4
Założenia analizy wariancji: analizowana zmienna jest mierzalna odchylenia od średnich grupowych mają rozkład normalny homogeniczność wariancji w poszczególnych podgrupach (12= 22=…= k2 = 2) poszczególne obserwacje są od siebie niezależne działania poszczególnych czynników są addytywne (gdy jest ich więcej niż 1)
ANOVA - Analysis of Variance Całkowita wariancja wyników zostaje rozbita na: Wariancję wewnątrzgrupową (miara błędu) Wariancję międzygrupową (miara efektu eksperymentalnego) Osoba Grupa 1 2 … p X11 X21 Xp1 X12 X22 Xp2 3 X13 X23 Xp3 .. n X1n X2n Xpn
ANOVA - Analysis of Variance Przypadek w którym eksperyment się powiódł Całkowita wariancja wyników zostaje rozbita na: Wariancję wewnątrzgrupową (miara błędu) Wariancję międzygrupową (miara efektu eksperymentalnego) Całkowita wariancja wyników Wariancja międzygrupowa Wariancja wewnątrzgrupowa
ANOVA - Analysis of Variance Przypadek w którym eksperyment się nie powiódł Całkowita wariancja wyników zostaje rozbita na: Wariancję wewnątrzgrupową (miara błędu) Wariancję międzygrupową (miara efektu eksperymentalnego) Całkowita wariancja wyników Wariancja międzygrupowa Wariancja wewnątrzgrupowa
Terminologia SS – sum kwadratów odchyleń (ang. Sum of Squares) SST – całkowita SS (ang. Total SS) MS – średnia kwadratów odchyleń (ang. Mean Squares) E – wpływ grupy (ang. Effect) na przykład SSE – międzygrupowa suma kwadratów R – reszta (ang. Residual) na przykład SSR – wewnątrzgrupowa suma kwadratów
(SST - suma kwadratów odchyleń obserwacji od średniej w całej próbie) Całkowita wariancja (SST - suma kwadratów odchyleń obserwacji od średniej w całej próbie) MST=SST/(N-1) Wariancja wyjaśniona przez eksperyment Wariancja międzygrupowa Wariancja kontrolowana Wariancja niewyjaśniona przez eksperyment Wariancja wewnątrzgrupowa Wariancja błędu (SSTR - suma odchyleń średnich w grupach od średniej w całej próbie - ważonych liczbą obserwacji w każdej grupie) MSTR=SSTR/(G-1) (SSE - suma odchyleń obserwacji od odpowiadających im średnich grupowych) MSE=SSE/(N-G) N-liczba przypadków, G-liczba grup Im wyższe MSTR, a niższe MSE, tym w większym stopniu wyodrębniony czynnik wyjaśnia nam zróżnicowanie badanej zmiennej.
F = MSTR / MSE Statystyka F: Na podstawie danych obliczamy statystykę testu F. Obszar krytyczny wyznaczamy w oparciu o tablice rozkładu F. Jeżeli statystyka testu jest większa od wielkości obszaru krytycznego dla poziomu istotności 0,05, to odrzucamy hipotezę zerową.
Rozkład F (Fishera-Snedecora) stosunek kwadratów odchyleń międzygrupowych do wewnątrzgrupowych kształtuje się według określonego rozkładu (rozkład F) lub inaczej stosunek zmienności międzygrupowej do wewnątrzgrupowej kształtuje się według określonego rozkładu (rozkład F) Analizą wariancji posługujemy się przy badaniu istotności różnic między grupami doświadczalnymi. W tym celu wykorzystujemy wykryte przez Fishera prawo, że stosunek kwadratów odchyleń międzygrupowych do wewnątrzgrupowych kształtuje się według określonego rozkładu (rozkład F) i stąd możliwa jest ocena prawdopodobieństwa wystąpienia pewnych wartości F.
Rozkład F Jeśli z populacji o rozkładzie normalnym wybieralibyśmy losowo po dwie próby i badalibyśmy wzajemne relacje ich wariancji (iloraz), to ten stosunek miałby rozkład zgodny z rozkładem F. Sytuację tę można wyobrazić sobie w następujący sposób. Jeśli z populacji o rozkładzie normalnym wybieralibyśmy losowo po dwie próby i badalibyśmy wzajemne relacje ich wariancji (iloraz), to ten stosunek miałby rozkład zgodny z rozkładem F.
Rozkład F Jest to rozkład prawoskośny, tj. średnia arytmetyczna jest większa od mediany.
Hipoteza zerowa – krety Zakładamy, że masa ciała samic gatunku kret jest taka sama we wszystkich porach roku
Hipoteza alternatywna H1: Istnieje co najmniej jedna para średnich, które różnią się ze sobą. H1: 12 lub 1 3 lub 2 3 itd.... H1: Istnieje co najmniej jedna para średnich, które różnią się ze sobą. H1: 12 lub 13 lub 23 itd....
Kolejność obliczeń
Liczba stopni swobody Ogólna: N - 1(N – liczebność populacji) Międzygrupowa: k - 1 (k – liczba grup doświadczalnych) Wewnątrzgrupowa: N - k
Sumy kwadratów odchyleń Zmienność ogólna Zmienność międzygrupowa Zmienność wewnątrzgrupowa: Sw = So - Sm
Średnie kwadraty odchyleń Zmienność międzygrupowa: Sm2 = Sm / (k - 1) Zmienność wewnątrzgrupowa: Sw2 = Sw / (N - k)
Statystyka F wartość krytyczna
Interpretacja Obliczoną wartość statystyki F (tzw. F empiryczne - Femp.) odnosimy do wartości krytycznej z rozkładu F dla założonego poziomu istotności () i określonej liczby stopni swobody (1=k-1 oraz 2=N-k) (F tabelaryczne - Ftab.). Jeżeli Femp. Ftab. – to mamy podstawę do odrzucenie hipotezy zerowej i stwierdzenia, iż istnieje co najmniej jedna para średnich, które różnią się ze sobą. Zatem czynnik doświadczalny wpływa statystycznie na cechę. W przeciwnym przypadku, nie mamy podstaw do odrzucenia H0.
Wyniki Decyzję o odrzuceniu H0 podejmujemy na podstawie kolumny P r> F na wysokości nazwy czynnika, tj. PoraRoku. p jest mniejsze aniżeli 0,0001 (0,05) zatem mamy podstawę do odrzucenia H0!
Dylemat Czy masa ciała we wszystkich porach jest zróżnicowana? Czy są takie pory roku, w których masa ciała jest podobna?
Wykres pudełkowy
Testy Post Hoc: Testy wielokrotnych porównań wykonujemy wtedy, gdy na podstawie analizy wariancji stwierdzimy, iż czynnik wpływa istotnie na badaną cechę!!!! Za ich pomocą dokonujemy porównań parami średnich we wszystkich kombinacjach Jeśli mamy cztery grupy: 1-2; 1-3; 1-4; 2-3; 2-4; 3-4 Porównania parami kontrolują poziomu błędu I rodzaju
Testy a posteriori (post hoc) W sytuacji, gdy wyniki analizy wariancji dają podstawę do odrzucenia hipotezy zerowej, wykonujemy tzw. testy niezaplanowane, zwane inaczej testami a posteriori. Niedopuszczalne jest stosowanie testu t-Studenta w przypadku większej liczby porównywanych średnich (więcej niż 2), gdyż drastycznie rośnie błąd I rodzaju dla całego doświadczenia. Przy jednej parze błąd ten wynosić może 0,05, ale przy 4 średnich (6 możliwych porównań) prawdopodobieństwo, że się pomylimy wynosi: 1 - 0,956 = 1 - 0,735, czyli aż 0.265.
Test Duncana i Scheffé Wykazano różnice istotne między średnią masą ciała samic kontrolowanych jesienią, a wszystkimi pozostałymi porami roku. Nie stwierdzono jednak różnic istotnych między zwierzętami odłowionymi wiosną, latem i zimą!
Dwuczynnikowa analiza wariancji Two-factor ANOVA
Analiza wariancji z klasyfikacją wielokrotną pozwala nam zbadać, jaki wpływ na populację mają kombinacje czynników np. w przypadku dwuczynnikowej ANOVy – czynnika A i B.
W rezultacie otrzymamy trzy efekty – efekty swoiste czynnika A oraz B oraz efekt interakcji AB. Efekt swoisty - efekt działania każdego z czynników z osobna (bez względu na poziom drugiego czynnika). Efekt interakcji - występuje, gdy efekt uzyskany przy danym poziomie jednego czynnika zależy od poziomu drugiego; nie miałby miejsca bez połączenia dwóch czynników na danym poziomie. Jeżeli interakcja nie zachodzi, to czynniki są addytywne.
Model Badamy daną cechę populacji (jej natężenie - średnią) w podgrupach ze względu na działanie dwóch czynników A i B. Otrzymujemy n*k kombinacji poziomów (gdyż istnieje n poziomów czynnika A i k poziomów czynnika B) Jako pierwszą sprawdzamy zawsze hipotezę dotyczącą interakcji, gdyż interpretacja wyników testów na efekty swoiste zależy od tego, czy czynniki są addytywne, czy nie.
Założenia: Normalność i identyczna wariancja rozkładu ze względu na badaną cechę w każdej podpróbie Obserwacje pochodzą z losowych prób Liczba obserwacji o poszczególnych kombinacjach poziomów czynników jest identyczna
Xijk=xsr+ai+bj+(ab)ij+eijk Model Xijk=xsr+ai+bj+(ab)ij+eijk Xsr – średnia ogólna, dla całej populacji ai – efekt działania czynnika A na poziomie i (i=1,2,...,n) bi – efekt działania czynnika B na poziomie i (i=1,2,...,k) (ab)ij – efekt interakcji czynników A i B na poziomach odpowiednio i oraz j eijk – błąd losowy o rozkładzie normalnym, średniej równej zero i stałej wariancji
Model SST = SSTR + SSE Zmienność (wariancja) całkowita = zmienność wynikająca ze zróżnicowania grup (wyjaśniona, międzygrupowa) + błędy losowe (zmienność niewyjaśniona, wewnątrzgrupowa) SSTR = SSA + SSB + SS(AB) zmienność wyjaśniona = zmienność wynikająca z czynnika A + zmienność wynikająca z czynnika B + zmienność wynikająca z interakcji czynników
Testowanie hipotez 1.Test na efekt swoisty czynnika A Ho: dla każdego i=1,2,...,n ai=0 H1: istnieje i, dla którego ai ≠ 0 Test sprawdza, czy istnieją statystycznie istotne różnice między średnimi badanej cechy, wynikające z zastosowania czynnika A na określonym poziomie 2. Test na efekt swoisty czynnika B (analogicznie) 3. Test na interakcję Ho: dla każdego i=1,2,...,n oraz j=1,2,...,k (ab)ij=0 H1: istnieje i oraz j, dla którego (ab)ij ≠ 0
Statystyki testujące Efekty swoiste: Efekt interakcji: - czynnika A F=MSA/MSE, df: (n-1) i nk(N-1) - czynnika B F=MSB/MSE, df: (k-1) i nk(N-1) Efekt interakcji: F=MS(AB)/MSE df: (n-1)(k-1) i nk(N-1) Gdzie: MSA=SSA/(n-1), MSB=SSB/(k-1), MS(AB)=SS(AB)/(n-1)(k-1), MSE=SSE/nk(N-1)
Przykład Zbadajmy wpływ roku studiów i płci na czas spędzany w internecie.
Z testu wynika, że efekt swoisty zarówno pierwszego jak i drugiego czynnika jest istotny statystycznie, zaś efekt interakcji jest nieistotny statystycznie.
Przecięcie się krzywych wskazuje na występowanie interakcji między czynnikami
Eksperyment z uprawą ryżu Tabela „ryż” składa się z 7 zmiennych (kolumn) i 72 przypadków (wierszy) Są to dane z eksperymentów w których porównywano wzrost (SuchaMasaKorzeni; SuchaMasaPedow) ryżu odmian dziko rosnących (dziki_ryż) i genetycznie zmodyfikowanych (ANU843), w warunkach trzech typów nawożenia chemicznego (F10, NH4Cl, and NH4NO3). Dane pochodzą z publikacji: Perrine, F.M., Prayitno, J., Weinman, J.J., Dazzo, F.B. and Rolfe, B. 2001: Rhizobium plasmids are involved in the inhibition or stimulation of rice growth and development. Australian Journal of Plant Physiology 28: 923-927. Czy istnieją istotne różnice między parametrami charakteryzującymi wzrost roślin ryżu odmiany dzikiej i genetycznie zmodyfikowanej? Czy te różnice zależą także od sposobu nawożenia? Która kombinacja daje największe, a która najmniejsze przyrosty suchej masy korzeni i pędów?
Eksperyment z uprawą ryżu
Eksperyment z uprawą ryżu
Eksperyment z uprawą ryżu
Eksperyment z uprawą ryżu
Eksperyment z uprawą ryżu
Eksperyment z uprawą ryżu
Eksperyment z uprawą ryżu
Eksperyment z uprawą ryżu
Eksperyment z uprawą ryżu