Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Wykład 12 Regresja liniowa Materiały dotyczące regresji linowej zostały przygotowane w oparciu o materiały Profesora G. P. McCabe z kursu,, Applied regression.

Podobne prezentacje


Prezentacja na temat: "Wykład 12 Regresja liniowa Materiały dotyczące regresji linowej zostały przygotowane w oparciu o materiały Profesora G. P. McCabe z kursu,, Applied regression."— Zapis prezentacji:

1 Wykład 12 Regresja liniowa Materiały dotyczące regresji linowej zostały przygotowane w oparciu o materiały Profesora G. P. McCabe z kursu,, Applied regression analysis na Uniwersytecie Purdue. Kurs był przygotowany w oparciu o książkę: Kutner, Nachtsheim, Neter and Li, Applied Linear Statistical Models, (5 th ed.)

2 Krzywa wieża w Pizie

3 Przykład (2) –Zmienna zależna - nachylenie (Y) –Zmienna wyjaśniająca - czas (X) – wykres – dopasowanie prostej regresji – przewidywanie przyszłości

4 SAS Data Step data a1; input year lean cards; ; data a1p; set a1; if lean ne.;

5 SAS Proc Print proc print data=a1; run;

6 OBS YEAR LEAN

7 SAS Proc Gplot symbol1 v=circle i=sm70s; proc gplot data=a1p; plot lean*year; run; symbol1 v=circle i=rl; proc gplot data=a1p; plot lean*year; run;

8

9

10 SAS Proc Reg proc reg data=a1; model lean=year/p r; output out=a2 p=pred r=resid; id year;

11 Parameter Standard Variable DF Estimate Error INTERCEP YEAR T for H0: Parameter=0 Prob > |T|

12 Dep Var Predict Obs YEAR LEAN Value Residual

13 Struktura danych Y i zmienna odpowiedzi (zależna) X i zmienna wyjaśniająca dla przypadków i = 1 to n

14 Prosta regresja liniowa – model statystyczny Y i = β 0 + β 1 X i + ξ i Y i wartość zmiennej odpowiedzi dla i tego osobnika X i wartość zmiennej wyjaśniającej dla i tego osobnika ξ i zakłócenie losowe z rozkładu normalnego o średniej 0 i wariancji σ 2

15 Parametry β 0 – punkt przecięcia z osią Y β 1 - nachylenie σ 2 - wariancja zakłócenia losowego

16 Własności modelu Y i = β 0 + β 1 X i + ξ i E (Y i ) = β 0 + β 1 X i Var(Y i |X i ) = var(ξ i ) = σ 2

17 Dopasowane równanie regresji i reszty Ŷ i = b 0 + b 1 X i e i = Y i – Ŷ i, reszta e i = Y i – (b 0 + b 1 X i )

18 Wykres reszt proc gplot data=a2; plot resid*year; where lean ne.; run;

19

20 Metoda najmniejszych kwadratów Minimalizujemy Σ(Y i – (b 0 + b 1 X i ) ) 2 =e i 2 Liczymy pochodne względem b 0 i b 1 i przyrównujemy do zera

21 Rozwiązanie Są to równocześnie estymatory największej wiarogodności

22 Metoda największej wiarogodności

23 Estymacja σ 2

24 Parameter Standard Variable DF Estimate Error INTERCEP YEAR Sum of Mean Source DF Squares Square Model Error C Total Root MSE Dep Mean C.V

25 Teoria dotycząca estymacji β 1 b 1 ~ N(β 1,σ 2 (b 1 )) gdzie σ 2 (b 1 )=σ 2 /Σ(X i – ) 2 t=(b 1 -β 1 )/s(b 1 ) gdzie s 2 (b 1 )=s 2 /Σ(X i – ) 2 t ~ t(n-2)

26 Przedział ufności dla β 1 b 1 ± t c s(b 1 ) gdzie t c = t(α/2,n-2), kwantyl rzędu (1-α/2) z rozkładu Studenta z n-2 stopniami swobody 1-α - poziom ufności

27 Test istotności dla β 1 H 0 : β 1 = 0, H a : β 1 0 t = (b 1 -0)/s(b 1 ) odrzucamy H 0 gdy |t| t c, gdzie t c = t(α/2,n-2) P = Prob(|z| |t|), gdzie z~t(n-2)

28 Teoria estymacji β 0 b 0 ~ N(β 0,σ 2 (b 0 )) gdzie σ 2 (b 0 )= t=(b 0 -β 0 )/s(b 0 ) w s( ), σ 2 jest zastąpione przez s 2 t ~ t(n-2)

29 Przedział ufności dla β 0 b 0 ± t c s(b 0 ) gdzie t c = t(α/2,n-2) 1-α - poziom ufności

30 Test istotności dla β 0 H 0 : β 0 = β 00, H a : β 0 β 00 t = (b 0 - β 00 )/s(b 0 ) odrzucamy H 0 gdy |t| t c, gdzie t c = t(α/2,n-2) P = Prob(|z| |t|), gdzie z~t(n-2)

31 Uwagi (1) Normalność b 0 and b 1 wynika z faktu, że oba te estymatory można przedstawić w postaci liniowej kombinacji Y i, które są niezależnymi zmiennymi o rozkładzie normalnym.

32 Uwagi (2) Na mocy Centralnego Twierdzenia Granicznego, dla dostatecznie dużych rozmiarów prób, estymatory parametrów w regresji liniowej mają rozkład bliski normalnemu, nawet gdy rozkład ξ i nie jest normalny. CTG zachodzi gdy wariancja błedu jest skończona. Można wtedy stosować opisane na poprzednich slajdach przedziały ufności i testy istotności.

33 Uwagi (3) Procedury testowania można zmodyfikować tak aby wykrywały alternatywy kierunkowe. Ponieważ σ 2 (b 1 )=σ 2 /Σ(X i – ) 2, błąd standardowy b 1 można uczynić dowolnie małym zwiększając Σ(X i – ) 2.

34 SAS Proc Reg proc reg data=a1; model lean=year/clb;

35 Parameter Standard Variable DF Estimate Error Intercept year t Value Pr > |t| 95% Confidence Limits <

36 Moc dla β 1 (1) H 0 : β 1 = 0, H a : β 1 0 t =b 1 /s(b 1 ) t c = t(0.025,n-2) dla α=.05, odrzucamy H 0 gdy |t| t c Potrzebujemy znaleźć P(|t| t c ) dla dowolnej wartości β 1 0 gdy β 1 = 0, to ``moc wynosi … ?

37 Moc dla β 1 (2) t~ t(n-2,δ) – niecentralny rozkład Studenta δ= β 1 / σ(b 1 ) – parametr niecentralności Musimy założyć pewne wartości dla σ 2 (b 1 )=σ 2 /Σ(X i – ) 2 i n

38 Przykład obliczeń mocy β 1 Załóżmy σ 2 =2500, n=25 i Σ(X i – ) 2 =19800 Tak więc mamy σ 2 (b 1 )=σ 2 /Σ(X i – ) 2 =

39 Przykładowe obliczenia mocy (2) Rozważmy β 1 = 1.5 Możemy teraz obliczyć δ= β 1 / σ(b 1 ) t~ t(n-2,δ), chcemy znaleźć P(|t| t c ) Użyjemy funkcji SAS-a która oblicza dystrybuantę niecentralnego rozkładu Studenta.

40 data a1; n=25; sig2=2500; ssx=19800; alpha=.05; sig2b1=sig2/ssx; df=n-2; beta1=1.5; delta=beta1/sqrt(sig2b1); tc=tinv(1-alpha/2,df); power=1-probt(tc,df,delta) +probt(-tc,df,delta); output; proc print data=a1; run;

41 Obs n sig2 ssx alpha sig2b1 df beta1 delta tc power

42 data a2; n=25; sig2=2500; ssx=19800; alpha=.05; sig2b1=sig2/ssx; df=n-2; tc=tinv(1-alpha/2,df); do beta1=-2.0 to 2.0 by.05; delta=beta1/sqrt(sig2b1); power=1-probt(tc,df,delta) +probt(-tc,df,delta); output; end;

43 title1 'Power for the slope in simple linear regression'; symbol1 v=none i=join; proc gplot data=a2; plot power*beta1; proc print data=a2; run;

44


Pobierz ppt "Wykład 12 Regresja liniowa Materiały dotyczące regresji linowej zostały przygotowane w oparciu o materiały Profesora G. P. McCabe z kursu,, Applied regression."

Podobne prezentacje


Reklamy Google