Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Wieloczynnikowa analiza wariancji

Podobne prezentacje


Prezentacja na temat: "Wieloczynnikowa analiza wariancji"— Zapis prezentacji:

1 Wieloczynnikowa analiza wariancji

2 Analiza wariancji w SAS
Procedura ANOVA ANOVA – Analysis of variance (Analiza wariancji) Procedura GLM General Linear Models (Ogólne modele liniowe)

3 Model liniowy analizy wariancji
Yij =  + i + eij gdzie: Yij – wartość cechy j-tego obiektu pochodzącego z i- tej grupy;  – średnia ogólna, obliczona dla całej populacji; i – efekt i-tej grupy, tj. różnica między średnią dla i- tej grupy i dla całej populacji. Można ten efekt traktować jako przewagę i-tej grupy nad przeciętną dla całej populacji; eij – błąd losowy, resztowy.

4 Wartość prognozowana i reszty

5 Błąd losowy Błąd losowy jest odchyleniem danej obserwacji od średniej grupy, z jakiej ona pochodzi. Spowodowany jest zmiennością przypadkową, a ta dotyczy konkretnej obserwacji. Błąd jest to taka część obserwowanej zmienności, która nie jest wytłumaczona za pomocą modelu.

6 Czynniki stałe w modelu (Modele stałe)
Z reguły liczba poziomów czynnika stałego jest niewielka. W badaniach uwzględniamy z góry określone poziomy czynnika. Wnioski odnosimy wyłącznie do tych poziomów czynnika, które zostały uwzględnione w analizie. Przykładem czynnika stałego może być: płeć, grupa żywieniowa, rasa, rok badań, stado, sezon doju próbnego.

7 Model stały (Model I) Yij =  + i + eij
i – stały efekt i-tej grupy, tj. różnica między średnią dla i-tej grupy i dla całej populacji. Można ten efekt traktować jako przewagę i- tej grupy nad przeciętną dla całej populacji;

8 Czynniki losowe (Modele losowe)
Liczba poziomów czynnika losowego jest zwykle duża. Badaniom poddany jest losowy podzbiór wszystkich poziomów czynnika. Wnioski odnosimy do wszystkich poziomów czynnika, nawet tych, które nie zostały uwzględnione w eksperymencie, np. twierdzimy, że rasa wpływ na udział tłuszczu w mleko. Przykładem czynnika losowego jest efekt matki, ojca, grupy genetycznej, rasy.

9 Modele losowe (Model II)
Yij =  + Ai + eij gdzie: Ai – losowy efekt i-tej grupy, tj. różnica między średnią dla i-tej grupy i dla całej populacji,

10 Modele stałe a losowe Różnica między czynnikami stałymi oraz losowymi jest dość płynna, w dużej mierze zależy od postawionego do rozwiązania problemu.

11 Modele krzyżowe Yijk= + i + j + ()ij + eijk
gdzie: ()ij – efekt interakcji pomiędzy czynnikami (poprawka ze względu na interakcję).

12 Klasyfikacja krzyżowa

13 Dane – krety

14 Dwuczynnikowa ANOVA - rezultaty
Yijk= + i + j + eijk

15 Tabela dwuczynnikowej analizy wariancji
g – liczba poziomów czynnika F1, b – liczba poziomów czynnika F2

16 Dwuczynnikowa analiza wariancji z interakcją
Yijk= + i + j + ()ij + eijk

17 Brak istotnej interakcji

18 Dwuczynnikowa ANOVA, wysoko istotna interakcja
Presumin an alpha of 0.05, you reject the null hypothesis. You have sufficent evidence to conclude there is an interaction between two factors. To confirm the conlclusion about interaction between the factors examin the means plot. Erroneous – (ereness) błędne Because of the interaction, the tests for individual factor effects may be misleading due to masking of these effects by the interaction. Therefore, testing the means for the two factors separately might lead to erroneous conclusions.

19 Wysoko istotna interakcja

20 Wyłączenie interakcji z modelu
Zaleca się, aby z modelu wyeliminować takie interakcje, które są nieistotne statystycznie. Zwiększa się tym samym siłę działania czynników głównych. Jest to tym bardziej uzasadnione, jeśli: liczba stopni swobody dla błędu jest mniejsza aniżeli 5 oraz średni kwadrat odchyleń dla interakcji podzielony przez wariancję błędu jest mniejszy aniżeli 2.

21 Model hierarchiczny Yijk =  + i + (j)i + eijk gdzie:
i – efekt stada, (j)i – czynnik zagnieżdżony, np. tj. wpływ ojca.

22 Przykład zagnieżdżenia
Jest to sytuacja, w której określone poziomy czynnika rozważane są w obrębie czynnika nadrzędnego. np. kozioł czy też tryk kryje samice wyłącznie w wybranych stadach.

23 Typy sum kwadratów odchyleń
Type SS1: Modele hierarchiczne, regresja wielomianowa. Istotna jest kolejność czynników. Type SS2: W sytuacji, gdy interesują nas efekty główne a interakcje są nieistotne statystycznie. Type SS3: Każdy element traktowany jest oddzielnie, indywidualnie. Type SS4: Stosowany, gdy istnieją brakujące podklasy. Wszystkie typy sum kwadratów odchyleń są sobie równe dla układów zbalansowanych!

24 Modele ze zmienną towarzyszącą (regresją)
Yijk= + ai + bj + (ab)ij + βX1 + eijk gdzie: (ab)ij – efekt interakcji pomiędzy czynnikami (poprawka ze względu na interakcję). βX1 – regresja (zmienna towarzysząca).

25 Diagnostyka modelu

26 Diagnostyka modelu r-kwadrat (R-Square) (R2) = SKM/SKO; Wskaźnik determinacji informuje, w jakim stopniu zmienne niezależne (czynniki) objaśniają zmienność cechy zależnej. Jeżeli wartość jest zbliżona do 0, tzn. że czynniki w żaden sposób nie wyjaśniają zmienności cechy ilościowej. Średnia - średnia arytmetyczna dla całej populacji. Pierwiastek (Root) MSE – pierwiastek kwadratowy średniego kwadratu odchyleń dla zmienności wewnątrzgrupowej Wsp. war (Coeff Var) – wskaźnik zmienności = Root MSE / Mean * 100 The CoeffVar expresses the root MSE (the estimate of the standard deviation for all treatments) as a percentage of the mean. It is a unitless measure that is useful in comparing the variability of two sets of data with different units of measure or different magnitudes (wielkość, znaczenie, rozmiary)

27 Dylemat Czy masa ciała we wszystkich porach jest zróżnicowana?
Czy są takie pory roku, w których masa ciała jest podobna?

28 Wykres pudełkowy

29 Testy a posteriori W sytuacji, gdy wyniki analizy wariancji dają podstawę do odrzucenia hipotezy zerowej, wykonujemy tzw. testy niezaplanowane, zwane inaczej testami a posteriori. Niedopuszczalne jest stosowanie testu t-Studenta w przypadku większej liczby porównywanych średnich (więcej niż 2), gdyż drastycznie rośnie błąd I rodzaju dla całego doświadczenia. Przy jednej parze błąd ten wynosić może 0,05, ale przy 4 średnich (6 możliwych porównań) prawdopodobieństwo, że się pomylimy wynosi: 1 - 0,956 = 1 - 0,735, czyli aż

30 Testy wielokrotnych porównań (post hoc)
Testy wielokrotnych porównań wykonujemy wtedy, gdy na podstawie analizy wariancji stwierdzimy, iż czynnik wpływa istotnie na badaną cechę!!!! We want to deterine which means are significantly different. Multiple comparisions are also known as post hoc tests. The test enable us to ake this determination.

31 Grupa średnich jednorodnych
Grupy jednorodne: są to takie grupy średnich, które nie różnią się statystycznie ze sobą. Procedury, które zmierzają do wyróżnienia grup jednorodnych nazywają się procedurami porównań wielokrotnych, procedurami jednoczesnego wnioskowania lub post-hoc. Testy te wykorzystujemy przy analizie wariancji wykonywanej w ramach Modelu I.

32 Test NIR [test najmniejszych istotnych różnic] (LSD [least significant differences]). Jest najstarszym historycznie testem wielokrotnych porównań. Zaproponowany przez Fishera w Jego idea polega na wyznaczeniu tzw. najmniejszych istotnych różnic i porównaniu ich z różnicami średnich. Jest to test najmniej odporny na wzrost liczby wielokrotnych porównań, ponieważ poziom istotności odnosi się do pojedynczego porównania. W takim przypadku bardzo szybko wzrasta poziom istotności całego eksperymentu. Wobec powyższych test NIR stosowany jest jako test towarzyszący innym testom. Jeśli bezwzględna wartość różnicy średnich z próby jest większa aniżeli tzw. najmniejsza istotna różnica (NIR), to możemy stwierdzić, iż jest ona istotna statystycznie.

33 Test Dunnett Służy do porównania grup doświadczalnych z grupą kontrolną.

34 Test Duncana Test Duncana jest oparty na studentyzowanym rozstępie. Poziom istotności dla całego doświadczenia wynosi 1-(1-)n-1. W sytuacji, gdy n rośnie do nieskończoności poziom ten rośnie do jedności. W związku z czym, przy dużej liczbie porównywanych średnich prawdopodobieństwo popełnienia błędu drastycznie rośnie. Test ten stosowany jest raczej jako test towarzyszący innym testom. Test Duncana umożliwia tworzenie grup jednorodnych, czyli takich, pomiędzy którymi nie występują różnice istotne statystycznie na podstawie prób niezależnych.

35 Kolejność działań przy wykonywaniu testu Duncana:
Porządkujemy rosnąco ciąg uzyskanych średnich arytmetycznych Wybieramy parę średnich do porównania Odczytujemy z tabel testu Duncana wartości krytyczne. Uzależnione są one od poziomu istotności, liczby stopni swobody oraz typu rozstępu. Typ rozstępu - liczba wartości średnich zawartych w jednym ciągu pomiędzy porównywanymi średnimi. Wyliczamy tzw. istotny obszar zmienności: D*Sd D – odczytujemy w zależności od liczby stopni swobody (zmienność wewnątrzgrupowa) oraz typu rozstępu.

36 Test Duncana cd. S2w – wariancja dla zmienności wewnątrzgrupowej; ngr – przeciętna liczebność grupy k – liczba grup doświadczalnych, n­i­ – liczebność grupy Jeżeli |xi - xj|  Sd*D0,05 to różnica pomiędzy średnimi jest istotna statystycznie; Jeżeli |xi - xj|  Sd*D0,01 to różnica pomiędzy średnimi jest wysoko istotna statystycznie; Jeżeli |xi - xj| < Sd*D0,05 to różnica pomiędzy średnimi jest nieistotna statystycznie.

37 Test Duncana

38 Test Duncana  Porównywane grupy uporządkowane są malejąco. Średnie, przy których znajduje się ta sama litera stanowią, tzw. grupę średnich jednorodnych, tzn. które nie różnią się ze sobą.

39 Nanoszenie istotności

40 Scheffé test Jest testem najbardziej konserwatywnym, co oznacza, że rzadziej będziemy odrzucać pojedyncze porównania niż w przypadku innych testów. Test Scheffe zapewnia łączny poziom istotności dla wszystkich porównywanych par. Test ten doskonale nadaje się nie tylko do porównania par cech, ale również uwzględnia wszelkie kontrasty. To test najbardziej zachowawczy, gdyż błąd pierwszego rodzaju jest najmniejszy.

41 Test Scheffé

42 Test wielokrotnych porównań Tukey’a
Jest oparty o studentyzowany rozkład. Jest to test najbardziej polecany do porównania par średnich. Pozwala on wyznaczać grupy średnich jednorodnych. Występuje w dwóch odmianach: równa liczebność próbek, nierówna liczebność próbek (test Spjotvolla i Stolinea). Test Tukea jest bardziej konserwatywny aniżeli NIR, lecz mniej niż test Scheffé. Błąd pierwszego rodzaju jest przy tym teście mniejszy aniżeli w przypadku NIR, Duncan,a ponadto gwarantuje on jednakowy poziom istotności dla wszystkich porównywanych par. Conservative test tend to find fewer significant differences than might otherwise be found.

43 Test Tukey przypisywać attribute - attributed

44 Test Duncana i Scheffé Wykazano różnice istotne między średnią masą ciała samic kontrolowanych jesienią a wszystkimi pozostałymi porami roku. Nie stwierdzono jednak różnic istotnych między zwierzętami odłowionymi wiosną, latem i zimą!

45 Modyfikujemy kod

46 Program po zmianach Dopisaliśmy dodatkowe 2 linie pozwalające na porównania przy poziomie istotności równym 0,01 Program zapisujemy i Uruchamiamy

47 Efekty


Pobierz ppt "Wieloczynnikowa analiza wariancji"

Podobne prezentacje


Reklamy Google