Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Wykład 16 Inne zagadnienia z prostej regresji liniowej.

Podobne prezentacje


Prezentacja na temat: "Wykład 16 Inne zagadnienia z prostej regresji liniowej."— Zapis prezentacji:

1 Wykład 16 Inne zagadnienia z prostej regresji liniowej

2 Łączna estymacja β 0 i β 1 Dla jednego parametru konstruujemy przedziały ufności, dla kilku obszary ufności Obszar ufności dla (β 0, β 1 ) określa zbiór prostych regresji (patrz ``pasmo’’ ufności dla prostej regresji). Ponieważ wektor (b 0, b 1 ) ma rozkład dwuwymiarowy normalny, naturalnym obszarem ufności jest elipsa. My nauczymy się jak skonstruować prostokątny obszar ufności.

3 Korekta Bonferroniego Chcemy aby prawdopodobieństwo, że oba przedziały pokrywają odpowiednie parametry było co najmniej.95 Nasz ``zapas błędu’’ wynosi więc (α =.05) Połowę zużywamy na β 0 (.025) a połowę na β 1 (.025) Konstruujemy 97.5% PU dla β 0 i 97.5% PU dla β 1

4 Korekta Bonferoniego (2) b 1 ± t c s(b 1 ) b 0 ± t c s(b 0 ) gdzie t c = t(.0125, n-2).0125 = (.05)/(2*2)

5 Nierówność Bonferroniego Niech A oznacza zdarzenie, że przedział dla β 0 pokrywa β 0 a B niech oznacza zdarzenie, że przedział dla β 1 pokrywa β 1 A’ i B’ oznaczają dopełnienia zdarzeń A i B Chcemy aby P(A i B) ≥ 0.95.

6 Nierówność Bonferoniego (2) P(A i B)=1-P(A’ lub B’) P(A’ lub B’) = P(A’)+ P(B’)-P(A’ i B’) ≤ P(A’)+P(B’) Tak więc P(A i B) ≥ 1 – (P(A’)+P(B’))

7 Nierówność Bonferroniego (3) P(A i B) ≥ 1-(P(A’)+ P(B’)) Tak więc jeżeli P(A’)=P(B’)= 05/2, wtedy 1-(P(A’)+ P(B’)) = 1 –.05 =.95 Tak więc P(A i B) ≥ 0.95

8 <

9 Przedziały ufności dla wartości oczekiwanej Y Równoczesna estymacja dla wszystkich X h, stosujemy ``pasmo’’ ufności Workinga- Hotellinga ± Ws( ) gdzie W 2 =2F(α; 2, n-2) Gdy estymujemy tylko w kilku (g) punktach, można stosować korektę Bonferroniego ± Bs( ) gdzie B=t(α/(2g), n-2)

10 data a1; alpha= 0.05;n=50; W2=2*finv(1-alpha,2,n-2); W=sqrt(W2); do g=1 to 15 by 1; B=tinv(1-alpha/2/g,n-2); output; end; proc print data=a1; run;

11 Obs alpha n g W2 W B

12 Obs alpha n g W2 W B

13 Równoczesne przedziały predykcyjne Równoczesna predykcja dla kilku (g) punktów X h, Można stosować korektę Bonferroniego ± Bs(pred) gdzie B=t(α/(2g), n-2)

14 Regresja przez początek układu współrzędnych Y i = β 1 X i + ξ i Opcja NOINT w PROC REG Ogólnie niezbyt dobry pomysł Problemy z R 2 i innymi statystykami

15 Błędy pomiarów Błędy pomiarów dla Y na ogół nie stanowią problemu (wliczają się w zakłócenie losowe), Błędy pomiarów dla X mogą powodować obciążenie estymatora nachylenia

16 Wybór wartości X W mianownikach wzorów na wariancję większości estymatorów występuje Σ(X i – ) 2 Tak, więc staramy się możliwie ``rozrzucić’’ wartości X

17 Model w formie n równań Y i = β 0 + β 1 X i + ξ i ξ i są niezależnymi zmiennymi losowymi z rozkładu normalnego o wartości oczekiwanej 0 i wariancji σ 2

18 Model w postaci macierzowej

19 Model w postaci macierzowej (2)

20 Macierz eksperymentu

21 Wektor parametrów

22 Losowy wektor zakłóceń

23 Losowy wektor zmiennej zależnej

24 Model w postaci macierzowej Y = X β + ξ nx1 nx2 2x1 nx1

25 Macierz kowariancji

26 Macierz kowariancji dla wektora ξ

27 Macierz kowariancji dla Y

28 Założenia w postaci macierzowej ξ ~ N(0, σ 2 I) (rozkład wielowymiarowy normalny)

29 Równania normalne w postaci macierzowej XY = (XX)β Estymator najmniejszych kwadratów b = (b 0, b 1 ) gdzie b = (XX) –1 (XY) Te same wzory są prawdziwe w przypadku regresji wielorakiej (więcej zmiennych objaśniających).

30 Wartości przewidywane

31 Macierz H

32 Użyteczne twierdzenie U ~ N(μ, Σ), wektor wielowymiarowy normalny V = c + DU, liniowe przekształcenie U c jest wektorem, D jest macierzą V ~ N(c+Dμ, DΣD)

33 Zastosowanie do wektora b b = (XX) –1 (XY) = ((XX) –1 X)(Y) Y ~ N(Xβ, σ 2 I) So b ~ N( (XX) –1 X(Xβ), σ 2 ((XX) –1 X) I ((XX) –1 X) b ~ N(β, σ 2 (XX) –1 )


Pobierz ppt "Wykład 16 Inne zagadnienia z prostej regresji liniowej."

Podobne prezentacje


Reklamy Google