Pobierz prezentację
Pobieranie prezentacji. Proszę czekać
OpublikowałIzaak Graca Został zmieniony 10 lat temu
1
Wykład 16 Inne zagadnienia z prostej regresji liniowej
2
Łączna estymacja β0 i β1 Dla jednego parametru konstruujemy przedziały ufności, dla kilku obszary ufności Obszar ufności dla (β0, β1) określa zbiór prostych regresji (patrz ``pasmo’’ ufności dla prostej regresji). Ponieważ wektor (b0 , b1) ma rozkład dwuwymiarowy normalny, naturalnym obszarem ufności jest elipsa. My nauczymy się jak skonstruować prostokątny obszar ufności.
3
Korekta Bonferroniego
Chcemy aby prawdopodobieństwo, że oba przedziały pokrywają odpowiednie parametry było co najmniej .95 Nasz ``zapas błędu’’ wynosi więc (α =.05) Połowę zużywamy na β0 (.025) a połowę na β1 (.025) Konstruujemy 97.5% PU dla β0 i 97.5% PU dla β1
4
Korekta Bonferoniego (2)
b1 ± tcs(b1) b0 ± tcs(b0) gdzie tc = t(.0125, n-2) .0125 = (.05)/(2*2)
5
Nierówność Bonferroniego
Niech A oznacza zdarzenie, że przedział dla β0 pokrywa β0 a B niech oznacza zdarzenie, że przedział dla β1 pokrywa β1 A’ i B’ oznaczają dopełnienia zdarzeń A i B Chcemy aby P(A i B) ≥ 0.95.
6
Nierówność Bonferoniego (2)
P(A i B)=1-P(A’ lub B’) P(A’ lub B’) = P(A’)+ P(B’)-P(A’ i B’) ≤ P(A’)+P(B’) Tak więc P(A i B) ≥ 1 – (P(A’)+P(B’))
7
Nierówność Bonferroniego (3)
P(A i B) ≥ 1-(P(A’)+ P(B’)) Tak więc jeżeli P(A’)=P(B’)= 05/2, wtedy 1-(P(A’)+ P(B’)) = 1 – .05 =.95 Tak więc P(A i B) ≥ 0 .95
8
.025 .025 <.025 .025
9
Przedziały ufności dla wartości oczekiwanej Y
Równoczesna estymacja dla wszystkich Xh, stosujemy ``pasmo’’ ufności Workinga-Hotellinga ± Ws( ) gdzie W2=2F(α; 2, n-2) Gdy estymujemy tylko w kilku (g) punktach, można stosować korektę Bonferroniego ± Bs( ) gdzie B=t(α/(2g), n-2)
10
data a1; alpha= 0.05;n=50; W2=2*finv(1-alpha,2,n-2); W=sqrt(W2); do g=1 to 15 by 1; B=tinv(1-alpha/2/g,n-2); output; end; proc print data=a1; run;
11
Obs alpha n g W W B
12
Obs alpha n g W W B
13
Równoczesne przedziały predykcyjne
Równoczesna predykcja dla kilku (g) punktów Xh, Można stosować korektę Bonferroniego ± Bs(pred) gdzie B=t(α/(2g), n-2)
14
Regresja przez początek układu współrzędnych
Yi = β1Xi + ξi Opcja NOINT w PROC REG Ogólnie niezbyt dobry pomysł Problemy z R2 i innymi statystykami
15
Błędy pomiarów Błędy pomiarów dla Y na ogół nie stanowią problemu (wliczają się w zakłócenie losowe), Błędy pomiarów dla X mogą powodować obciążenie estymatora nachylenia
16
Wybór wartości X W mianownikach wzorów na wariancję większości estymatorów występuje Σ(Xi – )2 Tak, więc staramy się możliwie ``rozrzucić’’ wartości X
17
Model w formie n równań Yi = β0 + β1Xi + ξi
ξi są niezależnymi zmiennymi losowymi z rozkładu normalnego o wartości oczekiwanej 0 i wariancji σ2
18
Model w postaci macierzowej
19
Model w postaci macierzowej (2)
20
Macierz eksperymentu
21
Wektor parametrów
22
Losowy wektor zakłóceń
23
Losowy wektor zmiennej zależnej
24
Model w postaci macierzowej
Y = Xβ + ξ Y = X β + ξ nx1 nx2 2x1 nx1
25
Macierz kowariancji
26
Macierz kowariancji dla wektora ξ
27
Macierz kowariancji dla Y
28
Założenia w postaci macierzowej
(rozkład wielowymiarowy normalny)
29
Równania normalne w postaci macierzowej
XY = (XX)β Estymator najmniejszych kwadratów b = (b0, b1) gdzie b = (XX)–1(XY) Te same wzory są prawdziwe w przypadku regresji wielorakiej (więcej zmiennych objaśniających).
30
Wartości przewidywane
31
Macierz H
32
Użyteczne twierdzenie
U ~ N(μ, Σ), wektor wielowymiarowy normalny V = c + DU, liniowe przekształcenie U c jest wektorem, D jest macierzą V ~ N(c+Dμ, DΣD)
33
Zastosowanie do wektora b
b = (XX)–1(XY) = ((XX)–1X)(Y) Y ~ N(Xβ, σ2I) So b ~ N( (XX)–1X(Xβ), σ2 ((XX)–1X) I ((XX)–1X) b ~ N(β, σ2 (XX)–1)
Podobne prezentacje
© 2024 SlidePlayer.pl Inc.
All rights reserved.