Wykład 13 Przykład z muszkami (krzyżówka wsteczna CcNn z ccnn) Kolor oczu czerwonefioletowe Rozmiar skrzydła normalne3911 mniejsze1832.

Slides:



Advertisements
Podobne prezentacje
Regresja i korelacja materiały dydaktyczne.
Advertisements

Excel Narzędzia do analizy regresji
Funkcje tworzące są wygodnym narzędziem przy badaniu zmiennych losowych o wartościach całkowitych nieujemnych. Funkcje tworzące pierwszy raz badał de.
Estymacja. Przedziały ufności.
Wykład 9 Analiza wariancji (ANOVA)
Wykład 5 Standardowy błąd a odchylenie standardowe
Wykład 13 Estymacja wartości oczekiwanej zmiennej zależnej.
Wykład 11 Przykład z muszkami (krzyżówka wsteczna CcNn z ccnn)
Wykład 10 Rozważmy populacje i jej podgrupy.
Wykład 7: Moc Moc testu to prawdopodobieństwo odrzucenia H0, gdy prawdziwa jest HA Moc=czułość testu Moc = 1 – Pr (nie odrzucamy H0, gdy prawdziwa jest.
Analiza współzależności zjawisk
Analiza wariancji jednoczynnikowa
Dzisiaj na wykładzie Regresja wieloraka – podstawy i założenia
Analiza korelacji.
Wykład 7 Przedział ufności dla 1 – 2
Wykład 6 Standardowy błąd średniej a odchylenie standardowe z próby
Wykład 4 Rozkład próbkowy dla średniej z rozkładu normalnego
Wykład 8 Testy Studenta Jest kilka różnych testów Studenta. Mają one podobną strukturę ale służą do testowania różnych hipotez i różnią się nieco postacią.
Wykład 13 Przykład z muszkami (krzyżówka wsteczna CcNn z ccnn)
Wykład 14 Liniowa regresja
Wykład 3 Wzór Bayesa – wpływ rozkładu a priori.
Wykład 5 Przedziały ufności
Wykład 12 Statystyczny model dla jednoczynnikowej ANOVy
Wykład 3 Rozkład próbkowy dla średniej z rozkładu normalnego
Wykład 11 Analiza wariancji (ANOVA)
Wykład 3 Wzór Bayesa, cd.: Wpływ rozkładu a priori.
Wykład 4 Przedziały ufności
Analiza współzależności dwóch zjawisk
Średnie i miary zmienności
Korelacja, autokorelacja, kowariancja, trendy
Jednoczynnikowa analiza wariancji (ANOVA)
Rozkład t.
Hipotezy statystyczne
Testy nieparametryczne
Elementy Rachunku Prawdopodobieństwa i Statystyki
Konstrukcja, estymacja parametrów
Testowanie hipotez statystycznych
Analiza współzależności cech statystycznych
dr hab. Ryszard Walkowiak prof. nadzw.
Elementy Rachunku Prawdopodobieństwa i Statystyki
Rozkłady wywodzące się z rozkładu normalnego standardowego
Testy nieparametryczne
BADANIE STATYSTYCZNE Badanie statystyczne to proces pozyskiwania danych na temat rozkładu cechy statystycznej w populacji. Badanie może mieć charakter:
Testy nieparametryczne
Elementy Rachunku Prawdopodobieństwa i Statystyki
Modelowanie ekonometryczne
Finanse 2009/2010 dr Grzegorz Szafrański pokój B106 Termin konsultacji poniedziałek:
Podstawy statystyki, cz. II
Błędy i niepewności pomiarowe II
Planowanie badań i analiza wyników
FUNKCJE Opracował: Karol Kara.
Wykład 16 Inne zagadnienia z prostej regresji liniowej.
Regresja wieloraka.
Wykład 5 Przedziały ufności
Regresja liniowa. Dlaczego regresja? Regresja zastosowanie Dopasowanie modelu do danych Na podstawie modelu, przewidujemy wartość zmiennej zależnej na.
Statystyczna analiza danych w praktyce
Statystyczna analiza danych
Statystyczna analiza danych
Statystyczna analiza danych
STATYSTYKA – kurs podstawowy wykład 9 dr Dorota Węziak-Białowolska Instytut Statystyki i Demografii.
Przeprowadzenie badań niewyczerpujących, (częściowych – prowadzonych na podstawie próby losowej), nie daje podstaw do formułowania stanowczych stwierdzeń.
Testy nieparametryczne – testy zgodności. Nieparametryczne testy istotności dzielimy na trzy zasadnicze grupy: testy zgodności, testy niezależności oraz.
STATYSTYKA – kurs podstawowy wykład 7 dr Dorota Węziak-Białowolska Instytut Statystyki i Demografii.
Rozkłady statystyk z próby dr Marta Marszałek Zakład Statystyki Stosowanej Instytut Statystyki i Demografii Kolegium.
STATYSTYKA – kurs podstawowy wykład 8 dr Dorota Węziak-Białowolska Instytut Statystyki i Demografii.
STATYSTYKA – kurs podstawowy wykład 11
Rozkład z próby Jacek Szanduła.
Regresja wieloraka – bada wpływ wielu zmiennych objaśniających (niezależnych) na jedną zmienną objaśnianą (zależą)
Jednorównaniowy model regresji liniowej
Analiza współzależności zjawisk
Zapis prezentacji:

Wykład 13 Przykład z muszkami (krzyżówka wsteczna CcNn z ccnn) Kolor oczu czerwonefioletowe Rozmiar skrzydła normalne3911 mniejsze1832

Uzupełniamy tabelkę wartościami oczekiwanymi przy Ho Kolor oczuSuma czerwonefioletowe Kształt skrzydła normalne39 ( )11 ( )50 mniejsze18 ( )32 ( )50 Suma

Czy w badanej populacji muszek kolor oczu i kształt skrzydła są zmiennymi niezależnymi ? p 1 = Pr(czerwone oczy | normalne skrzydła), p 2 = Pr(czerwone oczy | mniejsze skrzydła), H 0 : p 1 = p 2 ; kolor oczu i rozmiar skrzydła są niezależne H A : p 1 p 2 ; kolor oczu i rozmiar skrzydła są zmiennymi zależnymi

Zastosujemy test chi-kwadrat dla niezależności 2 s = (O-E) 2 /E ma przy H 0 rozkład 2 1. Testujemy na poziomie = 0.05; odrzucamy gdy 2 s > 3.84 = 2 critical X 2 = Wniosek

Nie możemy jednak powiedzieć, że czerwone oczy powodują, że muszka ma normalne skrzydła. Prawidłowy wniosek to obserwacja, że kolor oczu i kształt skrzydła są zmiennymi zależnymi albo, że u muszek z normalnymi skrzydłami częściej występują czerwone oczy niż u muszek z mniejszymi skrzydłami. Nie możemy formułować wniosku przyczynowego ponieważ nie kontrolujemy analizowanych zmiennych a jedynie je obserwujemy. [W tym wypadku zależność wynika z faktu, że geny determinujące kształt oczu i rozmiar skrzydła leżą na jednym chromosomie.]

Tablice wielodzielcze: r k r rzędów, k kolumn: r k Analiza analogiczna do tablic 2 2. Przykład: 3 4 (r = 3 ; k = 4 )

Kolor włosówSuma Brązowe Czarne JasneRude Kolor oczu Brązow e 438 (331.7) 288 (154.1) 115 (356.5) 16 (14.6) 857 Szare/ Zielone 1387 (1212.3) 746 (563.3) 946 (1303.0) 53 (53.4) 3132 Niebies kie 807 (1088.0) 189 (505.6) 1768 (1169.5) 47 (48.0) 2811 Suma

Czy kolor oczu i włosów są zmiennymi zależnymi? H 0 : Kolor włosów i kolor oczu to zmienne niezależne H A : Kolor oczu i kolor włosów to zmienne zależne Wykonujemy test niezależności chi-kwadrat 2 = (O-E) 2 /E ma przy H 0 rozkład 2 6. {df = (r-1)(k-1) = (2)(3) = 6}

Testujemy na poziomie = Wartość krytyczna 2 6 =. 2 s = Wniosek Tablica wartości krytycznych z książki ``Introduction to the Practice of Statistics, D.S. Moore, G. P. McCabe

Estymator dla Pr(Oczy niebieskie) = Estymator dla Pr(Oczy niebieskie| włosy brązowe) = Estymator dla Pr(Oczy niebieskie | czarne włosy) = Estymator dla Pr(Oczy niebieskie | jasne włosy) = Estymator dla Pr(Oczy niebieskie | rude włosy) =

Testowanie niezależności odpowiada testowaniu, że odpowiednie p-stwa warunkowe są te same w każdej klasie. Gdy testujemy niezależność w dużych tabelach to na ogół nie zapisujemy H 0 za pomocą p-stw warunkowych Przypomnienie założeń: Próby losowe Obserwacje niezależne "E" w każdej komórce musi być 5

Dokładny test Fishera Stosujemy dla małych rozmiarów prób Przykład : ECMO ECMO to ``nowa procedura służąca ratowaniu noworodków cierpiących na poważne zaburzenia pracy układu oddechowego. CMT – konwencjonalna terapia

Zabieg WynikCMTECMOSuma Zgon415 Życie62834 Suma102939

H 0 : wynik nie zależy od zabiegu Znajdziemy warunkowe p-stwo zaobserwowanych wyników przy ustalonych ``sumach w rzędach i kolumnach (przy H 0 ). Przypomnijmy symbol Newtona - – na tyle sposobów można wybrać zbiór k elementowy ze zbioru n elementowego

–Na ile sposobów dokładnie 4 dzieci spośród 5 z tych które ``miały umrzeć mogło przypadkowo zostać przyporządkowanych do grupy CMT – –Na ile sposobów dokładnie 6 dzieci spośród 34 z tych które ``miały przeżyć mogło przypadkowo zostać przyporządkowanych do grupy CMT – –Na ile sposobów 10 dzieci spośród 39 mogło przypadkowo zostać przyporządkowanych do grupy CMT –

H A : ECMO jest lepsza niż CMT Przypadki bardziej ekstremalne w kierunku alternatywy –# liczba śmierci = CMT:4, ECMO:1 CMT:5, ECMO:0 P-wartość = Wniosek

Przedziały ufności dla różnicy między p-stwami warunkowymi W tabelach 2x2, wyrażamy H 0 jako p 1 = p 2 Przykład z lekarstwem p 1 = Pr(poprawa | lekarstwo), p 2 = Pr(poprawa | placebo).

Przybliżony 95% PU dla p 1 -p 2 wynosi W przykładzie z lekarstwami

PU dla p 1 -p 2 wynosi Mamy 95% pewności, że p-stwo poprawy po zażyciu lekarstwa jest większe od p-stwa poprawy po zażyciu placebo o co najmniej i nie więcej niż o W ogólności do konstrukcji przedziałów ufności na poziomie (1– ) stosujemy Z /2 (zamiast 1.96).

Regresja liniowa Dane: pary obserwacji (X, Y), (x1, y1), (x2, y2), …, (xn, yn) Przykłady: X = stężenie, Y = szybkość reakcji X = dawka, Y =odpowiedź X = waga, Y = wzrost X = wyniki z pierwszego kolokwium, Y = wyniki z drugiego kolokwium

Najczęściej mamy jedną losową próbę i obserwujemy dwie zmienne Czasami jedną z tych zmiennych kontrolujemy – wówczas zwykle nazywamy ją X a ``odpowiedź oznaczamy jako Y

Przykład : n = 5 x y (x- x)(y- y)(x- x)* (y- y) xy xróżnice suma Suma [() 2 ]

Wartości brzegowe: Jak zwykle średnie x = x/n, y = y/n Sumy kwadratów: SS X = (x- x) 2 = 28 = (n-1) s X 2, SS Y = (y- y) 2 = 26 = (n-1) s Y 2 S x = S y =

Nowa wielkość: "suma iloczynów SP XY = (x – x)(y – y) = Mierzy stopień korelacji między X i Y Próbkowy współczynnik korelacji Gdy r>0 wtedy ``najlepsza prosta opisująca relację między X i Y odpowiada funkcji rosnącej a gdy r <0 funkcji malejącej.,

r jest estymatorem współczynnika korelacji w populacji Gdy zmienne są niezależne wtedy ρ=0 (ale nie zawsze na odwrót). Jeżeli ρ=1 to Y=aX+b, a>0. Jeżeli ρ=-1 to Y=aX+b, a<0.

r=1 wtedy i tylko wtedy gdy wszystkie punkty obserwacyjne leżą na prostej o dodatnim współczynniku nachylenia r=-1 wtedy i tylko wtedy gdy wszystkie punkty obserwacyjne leżą na prostej o ujemnym współczynniku nachylenia. Wygodny wzór do obliczeń SPXY = (xy) – ( x)( y)/n = xy – n x y =

Model statystyczny Y = X + błąd losowy Dla ustalonej wartości X, Y jest zmienną losową o wartości oczekiwanej Y|X = X i odchyleniu standardowym Y|X. Będziemy zakładali, że Y|X nie zależy od X. Nasz cel – estymacja 0 i 1.

1 estymujemy za pomocą b 1 = 0 estymujemy za pomocą b 0 = y - b 1 x = Wyestymowana prosta regresji ma wzór

W jakim sensie ta prosta jest najlepsza ? Dla każdej wartości możemy obliczyć wartość y przewidywaną przez daną prostą = b 0 + b 1 x. Dla każdej pary obserwacji (x,y) obliczamy różnicę między wartością zaobserwowaną y a przewidywaną różnica = y -

Suma kwadratów różnic Definicja: SS(res) = (y- ) 2 Możemy korzystać ze wzoru SS(res) = SS Y - SP 2 XY /SS X SS(res) =

``Najlepsza prosta to taka, która daje najmniejszą możliwą wartość SS(res) SS(res) mierzy jakość dopasowania

Resztowy błąd standardowy s Y|X = s Y mierzy rozrzut y od y s Y|X mierzy rozrzut y od ``najlepszej prostej Około 68% obserwacji jest w odległości nie większej niż 1 s Y|X od prostej; 95% w odległości 2 s Y|X od prostej. Uwaga – odległość liczymy na osi y.

Y ~ N( Y|X, Y|X ) Zatem Y - Y|X Tak więc błąd losowy Dodatkowo zakładamy (tak jak w ANOV- ie), że Y|X nie zależy od X. Y|X estymujemy za pomocą s Y|X.

Tak więc nasz wyestymowany model Jak dobre są nasze estymatory ? SE b1 = = 0.322

(b ) / SE b1 ma rozkład Studenta z df = n-2 stopniami swobody. Możemy więc skonstruować 95% PU dla 1,

Testowanie Chcemy przetestować czy Y i X są zależne, a dokładniej czy średnia Y zależy od X. W ramach modelu liniowego odpowiada to testowaniu hipotezy czy 1 =

Czy (Y) zależy od (X) ? (Dokładniej - Czy X i Y są skorelowane ?) H 0 : 1 = 0. (Y) nie zależy (X). ( Y|X nie zależy od X) H A : 1 0 ( Y|X zależy od X) [H A może być kierunkowa, 1 0] Użyjemy testu niekierunkowego. t s = b 1 / SE b1 przy H 0 ma rozkład Studenta z df = n-2 = stopniami swobody. Wartość krytyczna t.025 =3.182.

t s = b 1 / SE b1 = /0.322 = 2.44 –3.182 < 2.44 < 3.182, więc Na poziomie istotności 0.05 nie mamy przesłanek aby twierdzić, że X i Y są skorelowane (albo że Y zależy od X). UWAGA Testujemy zależność Y od X w ramach modelu liniowego. Ten test nie jest w stanie wykryć pewnych nieliniowych form zależności. Mały rozmiar próby – kiepska moc.

Przykład Długość i ciężar węży SS X = (x- x) 2 =172 SP XY = xy – n x y =1237 b 1 = = 1237/172 = 7.19 b 0 = y - b 1 x = *63 = -301 Y = X + błąd

SE b1 = 95% PU dla β 1 : 7.19 ± t (7)* = (4.9, 9.4) Testowanie t s = b 1 / SE b1 = 7.19/0.9531=7.54 P-wartość < 0.001