Analiza wariancji jednoczynnikowa

Slides:



Advertisements
Podobne prezentacje
Regresja i korelacja materiały dydaktyczne.
Advertisements

Rangowy test zgodności rozkładów
BIOSTATYSTYKA I METODY DOKUMENTACJI Ćwiczenie 1
Układy eksperymentalne analizy wariancji. Analiza wariancji Planowanie eksperymentu Analiza jednoczynnikowa, p poziomów czynnika, dla każdego obiektu.
hasło: student Szymon Drobniak pokój konsultacje: wtorek 13-14
Wykład 9 Analiza wariancji (ANOVA)
Analiza współzależności zjawisk
Analiza wariancji Marcin Zajenkowski. Badania eksperymentalne ANOVA najczęściej do eksperymentów Porównanie wyników z 2 grup lub więcej Zmienna niezależna.
BUDOWA MODELU EKONOMETRYCZNEGO
Krzysztof Jurek Statystyka Spotkanie 4. Miary zmienności m ó wią na ile wyniki są rozproszone na konkretne jednostki, pokazują na ile wyniki odbiegają
Analiza wariancji Analiza wariancji (ANOVA) stanowi rozszerzenie testu t-Studenta w przypadku porównywanie większej liczby grup. Podział na grupy (czyli.
hasło: student Joanna Rutkowska Aneta Arct
Podstawowe pojęcia prognozowania i symulacji na podstawie modeli ekonometrycznych Przewidywaniem nazywać będziemy wnioskowanie o zdarzeniach nieznanych.
Nowy kod Statistica 6.1 HEN6EUEKH8.
Mgr Sebastian Mucha Schemat doświadczenia:
Wykład 11 Analiza wariancji (ANOVA)
Modele (hipotezy) zagnieżdżone
Test t-studenta dla pojedynczej próby
Próby niezależne versus próby zależne
Analiza wariancji ANOVA efekty główne
Rozkład normalny Cecha posiada rozkład normalny jeśli na jej wielkość ma wpływ wiele niezależnych czynników, a wpływ każdego z nich nie jest zbyt duży.
Wykład 4. Rozkłady teoretyczne
Jednoczynnikowa analiza wariancji (ANOVA)
Rozkład t.
Hipotezy statystyczne
Wieloczynnikowa analiza wariancji
Analiza wariancji jednoczynnikowa
Analiza wariancji.
Testy nieparametryczne
Dlaczego obserwujemy??? istotny wpływ, istotną różnicę, istotną zależność.
Analiza współzależności cech statystycznych
Hipotezy statystyczne
Testy nieparametryczne
BADANIE STATYSTYCZNE Badanie statystyczne to proces pozyskiwania danych na temat rozkładu cechy statystycznej w populacji. Badanie może mieć charakter:
Analiza wariancji jednoczynnikowa.
Testy nieparametryczne
Irena Woroniecka EKONOMIA MENEDŻERSKA - dodatek do W2
Elementy Rachunku Prawdopodobieństwa i Statystyki
Hipotezy statystyczne
Kilka wybranych uzupelnień
Ekonometria stosowana
Analiza wariancji ANOVA czynnikowa ANOVA
Statystyka - to „nie boli”
Testy statystycznej istotności
Seminarium licencjackie Beata Kapuścińska
Analiza wariancji ANOVA efekty główne. Analiza wariancji ANOVA ANOVA: ANalysis Of VAriance Nazwa: wywodzi się z faktu, że w celu testowania statystycznej.
Testowanie hipotez statystycznych
ANALIZA ANOVA - KIEDY? Wiele przedsięwzięć badawczych zakłada porównanie pomiędzy średnimi z więcej niż dwóch populacji lub dwóch warunków eksperymentalnych.
Wnioskowanie statystyczne
STATYSTYKA Pochodzenie nazwy:
Statystyka medyczna Piotr Kozłowski
Weryfikacja hipotez statystycznych
Estymatory punktowe i przedziałowe
Weryfikacja hipotez statystycznych dr hab. Mieczysław Kowerski
Testowanie hipotez Jacek Szanduła.
STATYSTYKA sposób na opisanie zjawisk masowych Mirosław Sadowski TRANSGRANICZNY UNIWERSYTET TRZECIEGO WIEKU W ZGORZELCU.
Treść dzisiejszego wykładu l Weryfikacja statystyczna modelu ekonometrycznego –błędy szacunku parametrów, –istotność zmiennych objaśniających, –autokorelacja,
Przeprowadzenie badań niewyczerpujących, (częściowych – prowadzonych na podstawie próby losowej), nie daje podstaw do formułowania stanowczych stwierdzeń.
Testy nieparametryczne – testy zgodności. Nieparametryczne testy istotności dzielimy na trzy zasadnicze grupy: testy zgodności, testy niezależności oraz.
STATYSTYKA – kurs podstawowy wykład 7 dr Dorota Węziak-Białowolska Instytut Statystyki i Demografii.
Estymacja parametrów populacji. Estymacja polega na szacowaniu wartości parametrów rozkładu lub postaci samego rozkładu zmiennej losowej, na podstawie.
Weryfikacja hipotez statystycznych „Człowiek – najlepsza inwestycja”
Wnioskowanie statystyczne. Próbkowanie (sampling)
Statystyka Wykłady dla II rok Geoinformacji rok akademicki 2012/2013
Statystyka matematyczna
Regresja wieloraka – służy do ilościowego ujęcia związków między wieloma zmiennymi niezależnymi (objaśniającymi) a zmienną zależną (objaśnianą) Regresja.
Regresja wieloraka – bada wpływ wielu zmiennych objaśniających (niezależnych) na jedną zmienną objaśnianą (zależą)
Jednorównaniowy model regresji liniowej
PODSTAWY STATYSTYKI Wykład udostępniony przez dr hab. Jana Gajewskiego
KONTRASTY Zastosowanie statystyki w bioinżynierii ćw 5.
Zapis prezentacji:

Analiza wariancji jednoczynnikowa Dr hab. inż. Dariusz Piwczyński

Ronald Fisher (angielski biolog i genetyk) Istota teorii analizy wariancji opiera się na podziale zmienności głównej na pewne frakcje i na analizowaniu tych poszczególnych zmienności. Analiza zmienności została opracowana przez uczonego angielskiego, biologa i genetyka Ronalda A. Fishera.

Zastosowanie Zmienna zależna – skala przedziałowa Liczba porównywanych grup > 2 Zmienna niezależna – skala nominalna lub porządkowa

Założenia analizy wariancji: Niezależność zmiennych objaśniających (czynników) Homogeniczność wariancji (test Levene) Normalność rozkładu Niezależność zmiennych objaśniających (czynników). Homogeniczność wariancji (równość wariancji): porównywane grupy nie różnią się zmiennością. Jeśli nie ma homogeniczności, to możliwe są logarytmiczne transformacje zmiennych lub też usunięcie grupy, która pod względem zmienności wyraźnie odstaje od pozostałych. Normalność: Rozkład cechy w każdej z grup winien być normalny. W praktyce często badamy czy czynnik losowy, tj. eij posiada rozkład normalny. W celu sprawdzenia tego założenia, od każdego pomiaru odejmujemy średnią wartość grupy, z której ten pomiar pochodzi, a następnie badamy rozkład tychże różnic. Jeśli reszty nie mają rozkładu normalnego, to zaleca się transformacje zmiennych.

Podział zmienności zmienność ogólna zmienność międzygrupowa zmienność wewnątrzgrupowa a) zmienność ogólna - wyraża się zróżnicowaniem wszystkich poszczególnych zmiennych w stosunku do ogólnej średniej (obliczonej dla całej zbiorowości) b) zmienność międzygrupowa - występuje na skutek różnic powstałych między grupami doświadczalnymi, wywołana jest działaniem czynnika doświadczalnego na poszczególne grupy doświadczalne, wyraża się zróżnicowaniem średnich poszczególnych grup doświadczalnych w stosunku do ogólnej średniej c) zmienność wewnątrzgrupowa - istnieje między poszczególnymi zmiennymi wewnątrz każdej grupy, wywołana jest czynnikami osobniczymi czyli indywidualnymi cechami poszczególnych osobników, wyraża się zróżnicowaniem poszczególnych zmiennych wewnątrz każdej grupy w stosunku do średniej dla tej grupy

Rozkład F stosunek kwadratów odchyleń międzygrupowych do wewnątrzgrupowych kształtuje się według określonego rozkładu (rozkład F) lub inaczej stosunek zmienności międzygrupowej do wewnątrzgrupowej kształtuje się według określonego rozkładu (rozkład F) Analizą wariancji posługujemy się przy badaniu istotności różnic między grupami doświadczalnymi. W tym celu wykorzystujemy wykryte przez Fishera prawo, że stosunek kwadratów odchyleń międzygrupowych do wewnątrzgrupowych kształtuje się według określonego rozkładu (rozkład F) i stąd możliwa jest ocena prawdopodobieństwa wystąpienia pewnych wartości F.

Rozkład F Jeśli z populacji o rozkładzie normalnym wybieralibyśmy losowo po dwie próby i badalibyśmy wzajemne relacje ich wariancji (iloraz), to ten stosunek miałby rozkład zgodny z rozkładem F. Sytuację tę można wyobrazić sobie w następujący sposób. Jeśli z populacji o rozkładzie normalnym wybieralibyśmy losowo po dwie próby i badalibyśmy wzajemne relacje ich wariancji (iloraz), to ten stosunek miałby rozkład zgodny z rozkładem F.

Rozkład F Jest to rozkład prawoskośny, tj. średnia arytmetyczna jest większa od mediany.

Hipoteza zerowa H0: Wszystkie średnie są równe. Hipoteza zerowa i alternatywna: H0: Wszystkie średnie są równe. H0: 1=2=3=4=5=6...

Hipoteza zerowa – krety Zakładamy, że masa ciała samic gatunku kret jest taka sama we wszystkich porach roku

Hipoteza alternatywna H1: Istnieje co najmniej jedna para średnich, które różnią się ze sobą. H1: 12 lub 1  3 lub 2  3 itd.... H1: Istnieje co najmniej jedna para średnich, które różnią się ze sobą. H1: 12 lub 13 lub 23 itd....

Kolejność obliczeń

Liczba stopni swobody Ogólna: N - 1(N – liczebność populacji) Międzygrupowa: k - 1 (k – liczba grup doświadczalnych) Wewnątrzgrupowa: N - k

Sumy kwadratów odchyleń Zmienność ogólna Zmienność międzygrupowa Zmienność wewnątrzgrupowa: Sw = So - Sm

Średnie kwadraty odchyleń Zmienność międzygrupowa: Sm2 = Sm / (k - 1) Zmienność wewnątrzgrupowa: Sw2 = Sw / (N - k)

Statystyka F wartość krytyczna

Interpretacja Obliczoną wartość statystyki F (tzw. F empiryczne - Femp.) odnosimy do wartości krytycznej z rozkładu F dla założonego poziomu istotności () i określonej liczby stopni swobody (1=k-1 oraz 2=N-k) (F tabelaryczne - Ftab.). Jeżeli Femp.  Ftab. – to mamy podstawę do odrzucenie hipotezy zerowej i stwierdzenia, iż istnieje co najmniej jedna para średnich, które różnią się ze sobą. Zatem czynnik doświadczalny wpływa statystycznie na cechę. W przeciwnym przypadku, nie mamy podstaw do odrzucenia H0.

Wyniki w SAS EG

Wyniki Decyzję o odrzuceniu H0 podejmujemy na podstawie kolumny P r> F na wysokości nazwy czynnika, tj. PoraRoku. p jest mniejsze aniżeli 0,0001 (0,05) zatem mamy podstawę do odrzucenia H0!

Dylemat Czy masa ciała we wszystkich porach jest zróżnicowana? Czy są takie pory roku, w których masa ciała jest podobna?

Wykres pudełkowy

Testy wielokrotnych porównań Testy wielokrotnych porównań wykonujemy wtedy, gdy na podstawie analizy wariancji stwierdzimy, iż czynnik wpływa istotnie na badaną cechę!!!!

Testy a posteriori (post hoc) W sytuacji, gdy wyniki analizy wariancji dają podstawę do odrzucenia hipotezy zerowej, wykonujemy tzw. testy niezaplanowane, zwane inaczej testami a posteriori. Niedopuszczalne jest stosowanie testu t-Studenta w przypadku większej liczby porównywanych średnich (więcej niż 2), gdyż drastycznie rośnie błąd I rodzaju dla całego doświadczenia. Przy jednej parze błąd ten wynosić może 0,05, ale przy 4 średnich (6 możliwych porównań) prawdopodobieństwo, że się pomylimy wynosi: 1 - 0,956 = 1 - 0,735, czyli aż 0.265.

Test Duncana i Scheffé Wykazano różnice istotne między średnią masą ciała samic kontrolowanych jesienią a wszystkimi pozostałymi porami roku. Nie stwierdzono jednak różnic istotnych między zwierzętami odłowionymi wiosną, latem i zimą!