Pobierz prezentację
Pobieranie prezentacji. Proszę czekać
1
Analiza wariancji (ANOVA)
Zakład Statystyki Stosowanej Instytut Statystyki i Demografii Kolegium Analiz Ekonomicznych Szkoła Główna Handlowa w Warszawie Analiza wariancji (ANOVA) dr Marta Marszałek
2
Analiza wariancji (Analysis of variance = ANOVA)
jest statystyczną metodą rozstrzygania o: - istnieniu różnic między średnimi w kilku grupach (subpopulacjach), (lub inaczej o:) - istnieniu wpływu wyodrębnionego czynnika na rozkład cechy w grupach. Przedmiotem badania jest r grup (subpopulacji) wyodrębnionych w związku z działaniem pewnego czynnika (treatment).
3
ANOVA Wpływ każdego czynnika rozpatrywany jest:
o d r ę b n i e modele jednoczynnikowe (jednoczynnikowa analiza wariancji) łącznie modele wieloczynnikowe (wieloczynnikowa analiza wariancji)
4
Analiza wariancji - przykłady
Czy średnie plony na czterech poletkach doświadczalnych są istotnie zróżnicowane w wyniku zasilania pól różnymi nawozami? Czy wykształcenie kobiet jest czynnikiem istotnie różnicującym przeciętną liczbę dzieci w gospodarstwie domowym? Czy lojalność klientów wobec konkretnej stacji paliw (X,Y,Z) i tankowanie tylko na jednej z nich wpływa na przeciętne zużycie paliwa przez samochód?
5
Analiza wariancji - hipotezy
Założenie: Zmienne Yi (i=1…r) mają: rozkład normalny o średniej mi oraz jednakową we wszystkich populacjach wariancji σ2. H0: m1 = m2 =…. = mr (wyodrębniony czynnik nie ma wpływu na rozkład badanej cechy) H1: mi ≠ mj dla co najmniej jednej pary i , j (wyodrębniony czynnik ma wpływ na rozkład badanej cechy, gdyż średnie w co najmniej dwóch populacjach różnią się)
6
Analiza wariancji - założenia cd.
1. Próby pobrane zostały w sposób niezależny z każdej z r populacji, 2. Badana cecha w każdej z populacji ma rozkład N o jednakowej wariancji σ2. Populacje o rozkładzie normalnym z różnymi średnimi, ale o tej samej wariancji
7
Z każdej grupy pobieramy niezależną próbę losową o liczebności ni i rozpatrujemy zmienne objaśniane Yi. Nr obserwacji (k) Numer grupy ( i ) 1 2 ……. r 3 . ni [yki] Liczebność grupy n1 n2 nr Średnie grupowe ȳ1 ȳ2 ȳr Czy te średnie różnią się na tyle znacząco, żeby uznać za istotny wpływ badanego czynnika?
8
Równość wariancyjna SST = SSE + SSB
Całkowita suma kwadratów odchyleń od średniej ogólnej SST = SSE SSB SST Całkowita zmienność zmiennej 𝒀 SSE (sum of squares for error) Zmienność wewnątrzgrupowa (zmienność niewyjaśniona) SSB (sum of squares between groups) Zmienność międzygrupowa (zmienność wyjaśniona)
9
Zróżnicowanie całkowite SST (Sum of Squares Total)
obserwacja 𝑘 w 𝑖−𝑡𝑒𝑗 grupie średnia ogólna średnia dla 𝑖−𝑡𝑒𝑗 grupy
10
Zróżnicowanie międzygrupowe (suma kwadratów odchyleń międzygrupowych)
SSB (Sum of Squares for Treatment – Between groups) wynika z oddziaływania wyodrębnionego czynnika średnia ogólna średnia dla 𝑖−𝑡𝑒𝑗 grupy
11
Zróżnicowanie wewnątrzgrupowe (suma kwadr. odchyleń wewnątrzgrupowych)
SSE (Sum of Squares for Error) wynika z różnic występujących wewnątrz każdej grupy średnia dla i-tej grupy obserwacja 𝑘 w 𝑖−𝑡𝑒𝑗 grupie
12
Podział odchylenia całkowitego danej obserwacji yki od średniej ogólnej ȳ jako suma odchylenia wyjaśnionego i błędu losowego Całkowite odchylenie (SST) Odch.wewnątrzgrup. ( błąd losowy) (SSE) Odchylenie międzygrupowe („czynnikowe”,wyjaśnione) (SSB) ȳ ȳi yki
13
Analiza wariancji + = SSB r-1 MSB SSE n-r MSE SST n-1 -
Źródło zmienności Suma kwadratów odchyleń Stopnie swobody Średni kwadrat odchyleń Zróżnicowanie międzygrupowe – czynnik SSB r-1 MSB Zróżnicowanie wewnątrzgrupowe – błąd losowy SSE n-r MSE Zróżnicowanie całkowite SST n-1 - + =
14
Statystyka (test Fishera):
𝐹= 𝑀𝑆𝐵 𝑀𝑆𝐸 = 𝑆𝑆𝐵 𝑟−1 : 𝑆𝑆𝐸 𝑛−𝑟 suma kwadratów odchyleń międzygrupowych suma kwadratów odchyleń wewnątrzgrupowych gdzie: 𝑟 - liczba badanych populacji (grup) 𝑛 - ogólna liczba jednostek we wszystkich próbach
15
Statystyka (test Fishera): Przy założeniu prawdziwości H0 statystyka F ma rozkład F-Snedecora o stopniach swobody licznika i mianownika odpowiednio 𝑠 1 =𝑟−1 oraz 𝑠 2 =𝑛−𝑟. Obszar krytyczny: 𝑃(𝐹≥ 𝐹 𝛼, 𝑠 1 , 𝑠 2 )=𝛼
17
Brak podstaw do odrzucenia H0
Krok po kroku - decyzja ANOVA Brak podstaw do odrzucenia H0 Stop Odrzucenie H0 Dalsza analiza
18
Porównania wielokrotne. Porównywanie średnich w populacji parami
Metoda najmniejszej istotnej różnicy Fishera (LSD - least significant difference) polega na porównaniu różnic między parami średnich z próby z pewną wielkością, tzw. najmniejszą istotną różnicą (LSD). tα - wartość z rozkładu t-Studenta dla n-r stopni swobody. Jeśli dla dwóch średnich zachodzi: to różnica między tymi średnimi jest statystycznie istotna.
19
Dziękuję dr Marta Marszałek
Podobne prezentacje
© 2024 SlidePlayer.pl Inc.
All rights reserved.