Analiza wariancji jednoczynnikowa

Slides:



Advertisements
Podobne prezentacje
Regresja i korelacja materiały dydaktyczne.
Advertisements

Test zgodności c2.
Rangowy test zgodności rozkładów
Joanna Sawicka Wydział Nauk Ekonomicznych, Uniwersytet Warszawski
Układy eksperymentalne analizy wariancji. Analiza wariancji Planowanie eksperymentu Analiza jednoczynnikowa, p poziomów czynnika, dla każdego obiektu.
hasło: student Szymon Drobniak pokój konsultacje: wtorek 13-14
Wykład 9 Analiza wariancji (ANOVA)
Analiza współzależności zjawisk
Analiza wariancji jednoczynnikowa
Analiza wariancji Marcin Zajenkowski. Badania eksperymentalne ANOVA najczęściej do eksperymentów Porównanie wyników z 2 grup lub więcej Zmienna niezależna.
BUDOWA MODELU EKONOMETRYCZNEGO
Krzysztof Jurek Statystyka Spotkanie 4. Miary zmienności m ó wią na ile wyniki są rozproszone na konkretne jednostki, pokazują na ile wyniki odbiegają
Analiza wariancji Analiza wariancji (ANOVA) stanowi rozszerzenie testu t-Studenta w przypadku porównywanie większej liczby grup. Podział na grupy (czyli.
Statystyka w doświadczalnictwie
hasło: student Joanna Rutkowska Aneta Arct
Wykład 11 Analiza wariancji (ANOVA)
Test t-studenta dla pojedynczej próby
Test t-studenta dla pojedynczej próby
Analiza wariancji ANOVA efekty główne
Rozkład normalny Cecha posiada rozkład normalny jeśli na jej wielkość ma wpływ wiele niezależnych czynników, a wpływ każdego z nich nie jest zbyt duży.
Wykład 4. Rozkłady teoretyczne
Testy nieparametryczne
Jednoczynnikowa analiza wariancji (ANOVA)
Rozkład t.
Hipotezy statystyczne
Wieloczynnikowa analiza wariancji
Analiza wariancji.
Testy nieparametryczne
Testowanie hipotez statystycznych
Analiza współzależności cech statystycznych
Hipotezy statystyczne
Wyrażenia algebraiczne
Rozkłady wywodzące się z rozkładu normalnego standardowego
Testy nieparametryczne
BADANIE STATYSTYCZNE Badanie statystyczne to proces pozyskiwania danych na temat rozkładu cechy statystycznej w populacji. Badanie może mieć charakter:
Analiza wariancji jednoczynnikowa.
Testy nieparametryczne
Elementy Rachunku Prawdopodobieństwa i Statystyki
Modelowanie ekonometryczne
Hipotezy statystyczne
Kilka wybranych uzupelnień
Analiza wariancji ANOVA czynnikowa ANOVA
Statystyka - to „nie boli”
Testy statystycznej istotności
Ekonometryczne modele nieliniowe
Regresja wieloraka.
Seminarium licencjackie Beata Kapuścińska
Analiza wariancji ANOVA efekty główne. Analiza wariancji ANOVA ANOVA: ANalysis Of VAriance Nazwa: wywodzi się z faktu, że w celu testowania statystycznej.
Testowanie hipotez statystycznych
ANALIZA ANOVA - KIEDY? Wiele przedsięwzięć badawczych zakłada porównanie pomiędzy średnimi z więcej niż dwóch populacji lub dwóch warunków eksperymentalnych.
Dopasowanie rozkładów
Ekonometryczne modele nieliniowe
Wnioskowanie statystyczne
STATYSTYKA Pochodzenie nazwy:
Weryfikacja hipotez statystycznych
Estymatory punktowe i przedziałowe
Weryfikacja hipotez statystycznych dr hab. Mieczysław Kowerski
Testowanie hipotez Jacek Szanduła.
Korelacje dwóch zmiennych. Korelacje Kowariancja.
Treść dzisiejszego wykładu l Weryfikacja statystyczna modelu ekonometrycznego –błędy szacunku parametrów, –istotność zmiennych objaśniających, –autokorelacja,
Przeprowadzenie badań niewyczerpujących, (częściowych – prowadzonych na podstawie próby losowej), nie daje podstaw do formułowania stanowczych stwierdzeń.
Testy nieparametryczne – testy zgodności. Nieparametryczne testy istotności dzielimy na trzy zasadnicze grupy: testy zgodności, testy niezależności oraz.
STATYSTYKA – kurs podstawowy wykład 7 dr Dorota Węziak-Białowolska Instytut Statystyki i Demografii.
Estymacja parametrów populacji. Estymacja polega na szacowaniu wartości parametrów rozkładu lub postaci samego rozkładu zmiennej losowej, na podstawie.
Weryfikacja hipotez statystycznych „Człowiek – najlepsza inwestycja”
Statystyka matematyczna
Regresja wieloraka – bada wpływ wielu zmiennych objaśniających (niezależnych) na jedną zmienną objaśnianą (zależą)
Jednorównaniowy model regresji liniowej
JEDNOCZYNNIKOWA ANALIZA WARIANCJI
Korelacja i regresja liniowa
Zapis prezentacji:

Analiza wariancji jednoczynnikowa Dr hab. inż. Dariusz Piwczyński

Zastosowanie Porównanie większej niż 2 liczby grup (k>2) Zmienna zależna – skala przedziałowa Zmienna niezależna – skala nominalna lub porządkowa

Ronald Fisher (angielski biolog i genetyk) Istota teorii analizy wariancji opiera się na podziale zmienności głównej na pewne frakcje i na analizowaniu tych poszczególnych zmienności. Analiza zmienności została opracowana przez uczonego angielskiego, biologa i genetyka Ronalda A. Fishera.

Rodzaje zmienności zmienność ogólna zmienność międzygrupowa zmienność wewnątrzgrupowa b) zmienność międzygrupowa - występuje na skutek różnic powstałych między grupami doświadczalnymi, wywołana jest działaniem czynnika doświadczalnego na poszczególne grupy doświadczalne, wyraża się zróżnicowaniem średnich poszczególnych grup doświadczalnych w stosunku do ogólnej średniej c) zmienność wewnątrzgrupowa - istnieje między poszczególnymi zmiennymi wewnątrz każdej grupy, wywołana jest czynnikami osobniczymi czyli indywidualnymi cechami poszczególnych osobników, wyraża się zróżnicowaniem poszczególnych zmiennych wewnątrz każdej grupy w stosunku do średniej dla tej grupy

Zmienność ogólna wyraża się zróżnicowaniem poszczególnych wartości zmiennej w stosunku do ogólnej średniej (obliczonej dla całej zbiorowości).

Zmienność międzygrupowa występuje na skutek różnic powstałych między grupami doświadczalnymi, wywołana jest działaniem czynnika doświadczalnego na poszczególne grupy doświadczalne, wyraża się zróżnicowaniem średnich poszczególnych grup doświadczalnych w stosunku do ogólnej średniej.

Zmienność wewnątrzgrupowa istnieje między poszczególnymi zmiennymi wewnątrz każdej grupy, wywołana jest czynnikami osobniczymi czyli indywidualnymi cechami poszczególnych osobników, wyraża się zróżnicowaniem poszczególnych wartości zmiennej wewnątrz każdej grupy w stosunku do średniej dla tej grupy.

Założenia analizy wariancji: Niezależność zmiennych objaśniających (czynników) Homogeniczność wariancji (test Levene) Normalność rozkładu Niezależność zmiennych objaśniających (czynników). Homogeniczność wariancji (równość wariancji):

Normalność rozkładu Rozkład cechy w każdej z grup winien być normalny. W praktyce często badamy czy czynnik losowy, tj. eij posiada rozkład normalny. W celu sprawdzenia tego założenia, od każdego pomiaru odejmujemy średnią wartość grupy, z której ten pomiar pochodzi, a następnie badamy rozkład tychże różnic. Jeśli reszty nie mają rozkładu normalnego, to zaleca się transformacje zmiennych.

Reszty

Normalność rozkładu sprawdzamy za pomocą: testów Shapiro-Wilk oraz Kolmogorov-Smirnoff Ocena graficzna: histogram Teoretycznie, rozkład powinien być oceniany oddzielnie dla każdej porównywanej grupy. W praktyce rozkład jest oceniany dla całej objętej badaniami populacji. ANOVA js robust (reubast) [odporna) Robustness (robastnis) - odporność Theoretically (firotikly) This is especially true with very simple sizes in each group, which make it difficult to assess normality. TEH ASSUMPTIONOF NORMALITY CAN BE RELAXED WHEN THE SIMPLE SIZE IS LARGE ENOUGH! The residuals will be tested for normality rather than the data itself. Residuals are the differences between the observed and predicted values for each observation.

Homogeniczność wariancji (równość wariancji) Porównywane grupy nie powinny różnić się między sobą pod względem zmienności. Jeśli nie ma homogeniczności, to możliwe są logarytmiczne transformacje zmiennych lub też usunięcie grupy, która pod względem zmienności wyraźnie odstaje od pozostałych.

Homogeniczność wariancji wariancje odnoszące się do porównywanych grup powinny być takie same: Test Bartlett wykonujemy w odniesieniu do zmiennych o rozkładzie normalnym Test Brown i Forsythe Test Levene sigma^2_1 denotes the unknown variance of the i_th population. ANOVA is robust against unequal variances when sample size is equal!

Założenie dotyczące homogeniczności nie są spełnione! Transformacje zmiennej zależnej w celu zmiany rozkłady zmiennych i skorygowania nierównych wariancji. Test Welch (Analiza wariancji Welch) Nieparametryczna analiza wariancji (rozkład jest silnie skośny lub występują wartości skrajnie odbiegające od pozostałych) If assumptions of the analysis of variance are violated (vajlejt – naruszone) you can

Transformacje zmiennych Transformacje zmiennych z reguły wpływają jednocześnie na homogeniczność wariancji i rozkład! Oznacza to, że transformacje mające na celu poprawę „normalności rozkładu” mogą powodować problemy z homogenicznością wariancji i odwrotnie. Ln(Y)

Rozkład F Jeśli z populacji o rozkładzie normalnym wybieralibyśmy losowo po dwie próby i badalibyśmy wzajemne relacje ich wariancji (iloraz), to ten stosunek miałby rozkład zgodny z rozkładem F. Sytuację tę można wyobrazić sobie w następujący sposób. Jeśli z populacji o rozkładzie normalnym wybieralibyśmy losowo po dwie próby i badalibyśmy wzajemne relacje ich wariancji (iloraz), to ten stosunek miałby rozkład zgodny z rozkładem F.

Rozkład F stosunek kwadratów odchyleń międzygrupowych do wewnątrzgrupowych kształtuje się według określonego rozkładu (rozkład F) lub inaczej stosunek zmienności międzygrupowej do wewnątrzgrupowej kształtuje się według określonego rozkładu (rozkład F) Analizą wariancji posługujemy się przy badaniu istotności różnic między grupami doświadczalnymi. W tym celu wykorzystujemy wykryte przez Fishera prawo, że stosunek kwadratów odchyleń międzygrupowych do wewnątrzgrupowych kształtuje się według określonego rozkładu (rozkład F) i stąd możliwa jest ocena prawdopodobieństwa wystąpienia pewnych wartości F.

Rozkład F Jest to rozkład prawoskośny, tj. średnia arytmetyczna jest większa od mediany.

Hipoteza zerowa H0: Wszystkie średnie są równe, tzn. H0: 1= 2= 3= 4 = 5= 6...

Hipoteza zerowa – krety Zakładamy, że masa ciała samic gatunku kret jest taka sama we wszystkich porach roku

Hipoteza alternatywna H1: Istnieje co najmniej jedna para średnich, które różnią się ze sobą. H1: 12 lub 1  3 lub 2  3 itd.... H1: Istnieje co najmniej jedna para średnich, które różnią się ze sobą. H1: 12 lub 13 lub 23 itd....

Kolejność obliczeń

Liczba stopni swobody Ogólna: N  1 (N – liczebność populacji) Międzygrupowa: k – 1 (k – liczba grup doświadczalnych) Wewnątrzgrupowa: N – k

Sumy kwadratów odchyleń Zmienność ogólna Zmienność międzygrupowa Zmienność wewnątrzgrupowa: Sw = So - Sm

Średnie kwadraty odchyleń Zmienność międzygrupowa: Sm2 = Sm / (k – 1) Zmienność wewnątrzgrupowa: Sw2 = Sw / (N – k)

Statystyka F wartość krytyczna

Interpretacja Obliczoną wartość statystyki F (tzw. F empiryczne - Femp.) odnosimy do wartości krytycznej z rozkładu F dla założonego poziomu istotności () i określonej liczby stopni swobody (1=k-1 oraz 2=N-k) (F tabelaryczne - Ftab.). Jeżeli Femp.  Ftab. – to mamy podstawę do odrzucenie hipotezy zerowej i stwierdzenia, iż istnieje co najmniej jedna para średnich, które różnią się ze sobą. Zatem czynnik doświadczalny wpływa statystycznie na cechę. W przeciwnym przypadku, nie mamy podstaw do odrzucenia H0.

ANOVA za pomocą MS EXCEL Badamy wpływ pory roku, w której zostały odłowione zwierzęta na ich masę ciała! Czy masa ciała jest uzależniona od pory roku?

Obliczamy średnie w zakresie masy ciała – tabela przestawna

Wyniki, g

a co z rozkładem? (Analiza danych)

Przygotowanie danych Poukładać dane w kolumnach! Każda kolumna to inna pora roku!

Analiza wariancji

Wyniki analizy wariancji

I to samo w SAS EG

Wyniki Decyzję o odrzuceniu H0 podejmujemy na podstawie kolumny P r> F na wysokości nazwy czynnika, tj. PoraRoku. p jest mniejsze aniżeli 0,0001 (0,05) zatem mamy podstawę do odrzucenia H0!

Homogeniczność wariancji