Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Wykład 16 Inne zagadnienia z prostej regresji liniowej.

Podobne prezentacje


Prezentacja na temat: "Wykład 16 Inne zagadnienia z prostej regresji liniowej."— Zapis prezentacji:

1 Wykład 16 Inne zagadnienia z prostej regresji liniowej

2 Łączna estymacja β0 i β1 Dla jednego parametru konstruujemy przedziały ufności, dla kilku obszary ufności Obszar ufności dla (β0, β1) określa zbiór prostych regresji (patrz ``pasmo’’ ufności dla prostej regresji). Ponieważ wektor (b0 , b1) ma rozkład dwuwymiarowy normalny, naturalnym obszarem ufności jest elipsa. My nauczymy się jak skonstruować prostokątny obszar ufności.

3 Korekta Bonferroniego
Chcemy aby prawdopodobieństwo, że oba przedziały pokrywają odpowiednie parametry było co najmniej .95 Nasz ``zapas błędu’’ wynosi więc (α =.05) Połowę zużywamy na β0 (.025) a połowę na β1 (.025) Konstruujemy 97.5% PU dla β0 i 97.5% PU dla β1

4 Korekta Bonferoniego (2)
b1 ± tcs(b1) b0 ± tcs(b0) gdzie tc = t(.0125, n-2) .0125 = (.05)/(2*2)

5 Nierówność Bonferroniego
Niech A oznacza zdarzenie, że przedział dla β0 pokrywa β0 a B niech oznacza zdarzenie, że przedział dla β1 pokrywa β1 A’ i B’ oznaczają dopełnienia zdarzeń A i B Chcemy aby P(A i B) ≥ 0.95.

6 Nierówność Bonferoniego (2)
P(A i B)=1-P(A’ lub B’) P(A’ lub B’) = P(A’)+ P(B’)-P(A’ i B’) ≤ P(A’)+P(B’) Tak więc P(A i B) ≥ 1 – (P(A’)+P(B’))

7 Nierówność Bonferroniego (3)
P(A i B) ≥ 1-(P(A’)+ P(B’)) Tak więc jeżeli P(A’)=P(B’)= 05/2, wtedy 1-(P(A’)+ P(B’)) = 1 – .05 =.95 Tak więc P(A i B) ≥ 0 .95

8 .025 .025 <.025 .025

9 Przedziały ufności dla wartości oczekiwanej Y
Równoczesna estymacja dla wszystkich Xh, stosujemy ``pasmo’’ ufności Workinga-Hotellinga ± Ws( ) gdzie W2=2F(α; 2, n-2) Gdy estymujemy tylko w kilku (g) punktach, można stosować korektę Bonferroniego ± Bs( ) gdzie B=t(α/(2g), n-2)

10 data a1; alpha= 0.05;n=50; W2=2*finv(1-alpha,2,n-2); W=sqrt(W2); do g=1 to 15 by 1; B=tinv(1-alpha/2/g,n-2); output; end; proc print data=a1; run;

11 Obs alpha n g W W B

12 Obs alpha n g W W B

13 Równoczesne przedziały predykcyjne
Równoczesna predykcja dla kilku (g) punktów Xh, Można stosować korektę Bonferroniego ± Bs(pred) gdzie B=t(α/(2g), n-2)

14 Regresja przez początek układu współrzędnych
Yi = β1Xi + ξi Opcja NOINT w PROC REG Ogólnie niezbyt dobry pomysł Problemy z R2 i innymi statystykami

15 Błędy pomiarów Błędy pomiarów dla Y na ogół nie stanowią problemu (wliczają się w zakłócenie losowe), Błędy pomiarów dla X mogą powodować obciążenie estymatora nachylenia

16 Wybór wartości X W mianownikach wzorów na wariancję większości estymatorów występuje Σ(Xi – )2 Tak, więc staramy się możliwie ``rozrzucić’’ wartości X

17 Model w formie n równań Yi = β0 + β1Xi + ξi
ξi są niezależnymi zmiennymi losowymi z rozkładu normalnego o wartości oczekiwanej 0 i wariancji σ2

18 Model w postaci macierzowej

19 Model w postaci macierzowej (2)

20 Macierz eksperymentu

21 Wektor parametrów

22 Losowy wektor zakłóceń

23 Losowy wektor zmiennej zależnej

24 Model w postaci macierzowej
Y = Xβ + ξ Y = X β + ξ nx1 nx2 2x1 nx1

25 Macierz kowariancji

26 Macierz kowariancji dla wektora ξ

27 Macierz kowariancji dla Y

28 Założenia w postaci macierzowej
(rozkład wielowymiarowy normalny)

29 Równania normalne w postaci macierzowej
XY = (XX)β Estymator najmniejszych kwadratów b = (b0, b1) gdzie b = (XX)–1(XY) Te same wzory są prawdziwe w przypadku regresji wielorakiej (więcej zmiennych objaśniających).

30 Wartości przewidywane

31 Macierz H

32 Użyteczne twierdzenie
U ~ N(μ, Σ), wektor wielowymiarowy normalny V = c + DU, liniowe przekształcenie U c jest wektorem, D jest macierzą V ~ N(c+Dμ, DΣD)

33 Zastosowanie do wektora b
b = (XX)–1(XY) = ((XX)–1X)(Y) Y ~ N(Xβ, σ2I) So b ~ N( (XX)–1X(Xβ), σ2 ((XX)–1X) I ((XX)–1X) b ~ N(β, σ2 (XX)–1)


Pobierz ppt "Wykład 16 Inne zagadnienia z prostej regresji liniowej."

Podobne prezentacje


Reklamy Google