Wykład 13 Przykład z muszkami (krzyżówka wsteczna CcNn z ccnn) Kolor oczu czerwonefioletowe Rozmiar skrzydła normalne3911 mniejsze1832
Uzupełniamy tabelkę wartościami oczekiwanymi przy Ho Kolor oczuSuma czerwonefioletowe Kształt skrzydła normalne39 ( )11 ( )50 mniejsze18 ( )32 ( )50 Suma
Czy w badanej populacji muszek kolor oczu i kształt skrzydła są zmiennymi niezależnymi ? p 1 = Pr(czerwone oczy | normalne skrzydła), p 2 = Pr(czerwone oczy | mniejsze skrzydła), H 0 : p 1 = p 2 ; kolor oczu i rozmiar skrzydła są niezależne H A : p 1 p 2 ; kolor oczu i rozmiar skrzydła są zmiennymi zależnymi
Zastosujemy test chi-kwadrat dla niezależności 2 s = (O-E) 2 /E ma przy H 0 rozkład 2 1. Testujemy na poziomie = 0.05; odrzucamy gdy 2 s > 3.84 = 2 critical X 2 = Wniosek
Nie możemy jednak powiedzieć, że czerwone oczy powodują, że muszka ma normalne skrzydła. Prawidłowy wniosek to obserwacja, że kolor oczu i kształt skrzydła są zmiennymi zależnymi albo, że u muszek z normalnymi skrzydłami częściej występują czerwone oczy niż u muszek z mniejszymi skrzydłami. Nie możemy formułować wniosku przyczynowego ponieważ nie kontrolujemy analizowanych zmiennych a jedynie je obserwujemy. [W tym wypadku zależność wynika z faktu, że geny determinujące kształt oczu i rozmiar skrzydła leżą na jednym chromosomie.]
Tablice wielodzielcze: r k r rzędów, k kolumn: r k Analiza analogiczna do tablic 2 2. Przykład: 3 4 (r = 3 ; k = 4 )
Kolor włosówSuma Brązowe Czarne JasneRude Kolor oczu Brązow e 438 (331.7) 288 (154.1) 115 (356.5) 16 (14.6) 857 Szare/ Zielone 1387 (1212.3) 746 (563.3) 946 (1303.0) 53 (53.4) 3132 Niebies kie 807 (1088.0) 189 (505.6) 1768 (1169.5) 47 (48.0) 2811 Suma
Czy kolor oczu i włosów są zmiennymi zależnymi? H 0 : Kolor włosów i kolor oczu to zmienne niezależne H A : Kolor oczu i kolor włosów to zmienne zależne Wykonujemy test niezależności chi-kwadrat 2 = (O-E) 2 /E ma przy H 0 rozkład 2 6. {df = (r-1)(k-1) = (2)(3) = 6}
Testujemy na poziomie = Wartość krytyczna 2 6 =. 2 s = Wniosek Tablica wartości krytycznych z książki ``Introduction to the Practice of Statistics, D.S. Moore, G. P. McCabe
Estymator dla Pr(Oczy niebieskie) = Estymator dla Pr(Oczy niebieskie| włosy brązowe) = Estymator dla Pr(Oczy niebieskie | czarne włosy) = Estymator dla Pr(Oczy niebieskie | jasne włosy) = Estymator dla Pr(Oczy niebieskie | rude włosy) =
Testowanie niezależności odpowiada testowaniu, że odpowiednie p-stwa warunkowe są te same w każdej klasie. Gdy testujemy niezależność w dużych tabelach to na ogół nie zapisujemy H 0 za pomocą p-stw warunkowych Przypomnienie założeń: Próby losowe Obserwacje niezależne "E" w każdej komórce musi być 5
Dokładny test Fishera Stosujemy dla małych rozmiarów prób Przykład : ECMO ECMO to ``nowa procedura służąca ratowaniu noworodków cierpiących na poważne zaburzenia pracy układu oddechowego. CMT – konwencjonalna terapia
Zabieg WynikCMTECMOSuma Zgon415 Życie62834 Suma102939
H 0 : wynik nie zależy od zabiegu Znajdziemy warunkowe p-stwo zaobserwowanych wyników przy ustalonych ``sumach w rzędach i kolumnach (przy H 0 ). Przypomnijmy symbol Newtona - – na tyle sposobów można wybrać zbiór k elementowy ze zbioru n elementowego
–Na ile sposobów dokładnie 4 dzieci spośród 5 z tych które ``miały umrzeć mogło przypadkowo zostać przyporządkowanych do grupy CMT – –Na ile sposobów dokładnie 6 dzieci spośród 34 z tych które ``miały przeżyć mogło przypadkowo zostać przyporządkowanych do grupy CMT – –Na ile sposobów 10 dzieci spośród 39 mogło przypadkowo zostać przyporządkowanych do grupy CMT –
H A : ECMO jest lepsza niż CMT Przypadki bardziej ekstremalne w kierunku alternatywy –# liczba śmierci = CMT:4, ECMO:1 CMT:5, ECMO:0 P-wartość = Wniosek
Przedziały ufności dla różnicy między p-stwami warunkowymi W tabelach 2x2, wyrażamy H 0 jako p 1 = p 2 Przykład z lekarstwem p 1 = Pr(poprawa | lekarstwo), p 2 = Pr(poprawa | placebo).
Przybliżony 95% PU dla p 1 -p 2 wynosi W przykładzie z lekarstwami
PU dla p 1 -p 2 wynosi Mamy 95% pewności, że p-stwo poprawy po zażyciu lekarstwa jest większe od p-stwa poprawy po zażyciu placebo o co najmniej i nie więcej niż o W ogólności do konstrukcji przedziałów ufności na poziomie (1– ) stosujemy Z /2 (zamiast 1.96).
Regresja liniowa Dane: pary obserwacji (X, Y), (x1, y1), (x2, y2), …, (xn, yn) Przykłady: X = stężenie, Y = szybkość reakcji X = dawka, Y =odpowiedź X = waga, Y = wzrost X = wyniki z pierwszego kolokwium, Y = wyniki z drugiego kolokwium
Najczęściej mamy jedną losową próbę i obserwujemy dwie zmienne Czasami jedną z tych zmiennych kontrolujemy – wówczas zwykle nazywamy ją X a ``odpowiedź oznaczamy jako Y
Przykład : n = 5 x y (x- x)(y- y)(x- x)* (y- y) xy xróżnice suma Suma [() 2 ]
Wartości brzegowe: Jak zwykle średnie x = x/n, y = y/n Sumy kwadratów: SS X = (x- x) 2 = 28 = (n-1) s X 2, SS Y = (y- y) 2 = 26 = (n-1) s Y 2 S x = S y =
Nowa wielkość: "suma iloczynów SP XY = (x – x)(y – y) = Mierzy stopień korelacji między X i Y Próbkowy współczynnik korelacji Gdy r>0 wtedy ``najlepsza prosta opisująca relację między X i Y odpowiada funkcji rosnącej a gdy r <0 funkcji malejącej.,
r jest estymatorem współczynnika korelacji w populacji Gdy zmienne są niezależne wtedy ρ=0 (ale nie zawsze na odwrót). Jeżeli ρ=1 to Y=aX+b, a>0. Jeżeli ρ=-1 to Y=aX+b, a<0.
r=1 wtedy i tylko wtedy gdy wszystkie punkty obserwacyjne leżą na prostej o dodatnim współczynniku nachylenia r=-1 wtedy i tylko wtedy gdy wszystkie punkty obserwacyjne leżą na prostej o ujemnym współczynniku nachylenia. Wygodny wzór do obliczeń SPXY = (xy) – ( x)( y)/n = xy – n x y =
Model statystyczny Y = X + błąd losowy Dla ustalonej wartości X, Y jest zmienną losową o wartości oczekiwanej Y|X = X i odchyleniu standardowym Y|X. Będziemy zakładali, że Y|X nie zależy od X. Nasz cel – estymacja 0 i 1.
1 estymujemy za pomocą b 1 = 0 estymujemy za pomocą b 0 = y - b 1 x = Wyestymowana prosta regresji ma wzór
W jakim sensie ta prosta jest najlepsza ? Dla każdej wartości możemy obliczyć wartość y przewidywaną przez daną prostą = b 0 + b 1 x. Dla każdej pary obserwacji (x,y) obliczamy różnicę między wartością zaobserwowaną y a przewidywaną różnica = y -
Suma kwadratów różnic Definicja: SS(res) = (y- ) 2 Możemy korzystać ze wzoru SS(res) = SS Y - SP 2 XY /SS X SS(res) =
``Najlepsza prosta to taka, która daje najmniejszą możliwą wartość SS(res) SS(res) mierzy jakość dopasowania
Resztowy błąd standardowy s Y|X = s Y mierzy rozrzut y od y s Y|X mierzy rozrzut y od ``najlepszej prostej Około 68% obserwacji jest w odległości nie większej niż 1 s Y|X od prostej; 95% w odległości 2 s Y|X od prostej. Uwaga – odległość liczymy na osi y.
Y ~ N( Y|X, Y|X ) Zatem Y - Y|X Tak więc błąd losowy Dodatkowo zakładamy (tak jak w ANOV- ie), że Y|X nie zależy od X. Y|X estymujemy za pomocą s Y|X.
Tak więc nasz wyestymowany model Jak dobre są nasze estymatory ? SE b1 = = 0.322
(b ) / SE b1 ma rozkład Studenta z df = n-2 stopniami swobody. Możemy więc skonstruować 95% PU dla 1,
Testowanie Chcemy przetestować czy Y i X są zależne, a dokładniej czy średnia Y zależy od X. W ramach modelu liniowego odpowiada to testowaniu hipotezy czy 1 =
Czy (Y) zależy od (X) ? (Dokładniej - Czy X i Y są skorelowane ?) H 0 : 1 = 0. (Y) nie zależy (X). ( Y|X nie zależy od X) H A : 1 0 ( Y|X zależy od X) [H A może być kierunkowa, 1 0] Użyjemy testu niekierunkowego. t s = b 1 / SE b1 przy H 0 ma rozkład Studenta z df = n-2 = stopniami swobody. Wartość krytyczna t.025 =3.182.
t s = b 1 / SE b1 = /0.322 = 2.44 –3.182 < 2.44 < 3.182, więc Na poziomie istotności 0.05 nie mamy przesłanek aby twierdzić, że X i Y są skorelowane (albo że Y zależy od X). UWAGA Testujemy zależność Y od X w ramach modelu liniowego. Ten test nie jest w stanie wykryć pewnych nieliniowych form zależności. Mały rozmiar próby – kiepska moc.
Przykład Długość i ciężar węży SS X = (x- x) 2 =172 SP XY = xy – n x y =1237 b 1 = = 1237/172 = 7.19 b 0 = y - b 1 x = *63 = -301 Y = X + błąd
SE b1 = 95% PU dla β 1 : 7.19 ± t (7)* = (4.9, 9.4) Testowanie t s = b 1 / SE b1 = 7.19/0.9531=7.54 P-wartość < 0.001