Wykład 16 Inne zagadnienia z prostej regresji liniowej
Łączna estymacja β0 i β1 Dla jednego parametru konstruujemy przedziały ufności, dla kilku obszary ufności Obszar ufności dla (β0, β1) określa zbiór prostych regresji (patrz ``pasmo’’ ufności dla prostej regresji). Ponieważ wektor (b0 , b1) ma rozkład dwuwymiarowy normalny, naturalnym obszarem ufności jest elipsa. My nauczymy się jak skonstruować prostokątny obszar ufności.
Korekta Bonferroniego Chcemy aby prawdopodobieństwo, że oba przedziały pokrywają odpowiednie parametry było co najmniej .95 Nasz ``zapas błędu’’ wynosi więc (α =.05) Połowę zużywamy na β0 (.025) a połowę na β1 (.025) Konstruujemy 97.5% PU dla β0 i 97.5% PU dla β1
Korekta Bonferoniego (2) b1 ± tcs(b1) b0 ± tcs(b0) gdzie tc = t(.0125, n-2) .0125 = (.05)/(2*2)
Nierówność Bonferroniego Niech A oznacza zdarzenie, że przedział dla β0 pokrywa β0 a B niech oznacza zdarzenie, że przedział dla β1 pokrywa β1 A’ i B’ oznaczają dopełnienia zdarzeń A i B Chcemy aby P(A i B) ≥ 0.95.
Nierówność Bonferoniego (2) P(A i B)=1-P(A’ lub B’) P(A’ lub B’) = P(A’)+ P(B’)-P(A’ i B’) ≤ P(A’)+P(B’) Tak więc P(A i B) ≥ 1 – (P(A’)+P(B’))
Nierówność Bonferroniego (3) P(A i B) ≥ 1-(P(A’)+ P(B’)) Tak więc jeżeli P(A’)=P(B’)= 05/2, wtedy 1-(P(A’)+ P(B’)) = 1 – .05 =.95 Tak więc P(A i B) ≥ 0 .95
.025 .025 <.025 .025
Przedziały ufności dla wartości oczekiwanej Y Równoczesna estymacja dla wszystkich Xh, stosujemy ``pasmo’’ ufności Workinga-Hotellinga ± Ws( ) gdzie W2=2F(α; 2, n-2) Gdy estymujemy tylko w kilku (g) punktach, można stosować korektę Bonferroniego ± Bs( ) gdzie B=t(α/(2g), n-2)
data a1; alpha= 0.05;n=50; W2=2*finv(1-alpha,2,n-2); W=sqrt(W2); do g=1 to 15 by 1; B=tinv(1-alpha/2/g,n-2); output; end; proc print data=a1; run;
Obs alpha n g W2 W B 1 0.05 50 1 6.38145 2.52615 2.01063 2 0.05 50 2 6.38145 2.52615 2.31390 3 0.05 50 3 6.38145 2.52615 2.48078 4 0.05 50 4 6.38145 2.52615 2.59532
Obs alpha n g W2 W B 1 0.05 20 1 7.10911 2.66629 2.10092 2 0.05 20 2 7.10911 2.66629 2.44501 3 0.05 20 3 7.10911 2.66629 2.63914 4 0.05 20 4 7.10911 2.66629 2.77453
Równoczesne przedziały predykcyjne Równoczesna predykcja dla kilku (g) punktów Xh, Można stosować korektę Bonferroniego ± Bs(pred) gdzie B=t(α/(2g), n-2)
Regresja przez początek układu współrzędnych Yi = β1Xi + ξi Opcja NOINT w PROC REG Ogólnie niezbyt dobry pomysł Problemy z R2 i innymi statystykami
Błędy pomiarów Błędy pomiarów dla Y na ogół nie stanowią problemu (wliczają się w zakłócenie losowe), Błędy pomiarów dla X mogą powodować obciążenie estymatora nachylenia
Wybór wartości X W mianownikach wzorów na wariancję większości estymatorów występuje Σ(Xi – )2 Tak, więc staramy się możliwie ``rozrzucić’’ wartości X
Model w formie n równań Yi = β0 + β1Xi + ξi ξi są niezależnymi zmiennymi losowymi z rozkładu normalnego o wartości oczekiwanej 0 i wariancji σ2
Model w postaci macierzowej
Model w postaci macierzowej (2)
Macierz eksperymentu
Wektor parametrów
Losowy wektor zakłóceń
Losowy wektor zmiennej zależnej
Model w postaci macierzowej Y = Xβ + ξ Y = X β + ξ nx1 nx2 2x1 nx1
Macierz kowariancji
Macierz kowariancji dla wektora ξ
Macierz kowariancji dla Y
Założenia w postaci macierzowej (rozkład wielowymiarowy normalny)
Równania normalne w postaci macierzowej XY = (XX)β Estymator najmniejszych kwadratów b = (b0, b1) gdzie b = (XX)–1(XY) Te same wzory są prawdziwe w przypadku regresji wielorakiej (więcej zmiennych objaśniających).
Wartości przewidywane
Macierz H
Użyteczne twierdzenie U ~ N(μ, Σ), wektor wielowymiarowy normalny V = c + DU, liniowe przekształcenie U c jest wektorem, D jest macierzą V ~ N(c+Dμ, DΣD)
Zastosowanie do wektora b b = (XX)–1(XY) = ((XX)–1X)(Y) Y ~ N(Xβ, σ2I) So b ~ N( (XX)–1X(Xβ), σ2 ((XX)–1X) I ((XX)–1X) b ~ N(β, σ2 (XX)–1)