Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Regresja wieloraka. Ogólny problem obliczeniowy: dopasowanie linii prostej do zbioru punktów. Najprostszy przypadek - jedna zmienna zależna i jedna zmienna.

Podobne prezentacje


Prezentacja na temat: "Regresja wieloraka. Ogólny problem obliczeniowy: dopasowanie linii prostej do zbioru punktów. Najprostszy przypadek - jedna zmienna zależna i jedna zmienna."— Zapis prezentacji:

1 Regresja wieloraka

2 Ogólny problem obliczeniowy: dopasowanie linii prostej do zbioru punktów. Najprostszy przypadek - jedna zmienna zależna i jedna zmienna niezależna (można zobrazować na wykresie rozrzutu)

3 Regresja wieloraka Estymacja najmniejszych kwadratów: Program tak dobierze równanie tej linii, że suma kwadratów odległości punktów na wykresie rozrzutu od linii regresji będzie minimalna.

4 Równanie regresji Linia prosta w przestrzeni dwuwymiarowej (na płaszczyźnie): Y=a+b*X Stała- wyraz wolny, nachylenie- współczynnik regresji. W przypadku wielowymiarowym (mamy do czynienia z więcej niż jedną zmienną niezależną) linia regresji nie może już być tak prosto przedstawiona wizualnie w przestrzeni dwuwymiarowej. Postać równania: Y=a+b 1 *X 1 +b 2 *X b p *X p

5 Równanie regresji Y=a+b 1 *X 1 +b 2 *X b p *X p Współczynniki regresji (b) reprezentują niezależne wkłady każdej ze zmiennych niezależnych do predykcji zmiennej zależnej.

6 Równanie regresji Y=a+b 1 *X 1 +b 2 *X b p *X p Kierunek zależności od poszczególnej zmiennej ustala się na podstawie znaku wartości współczynnika regresji (b). Jeśli b ma wartość dodatnią- związek jest dodatni (wraz ze wzrostem zmiennej X rośnie wartość Y) Jeśli b jest ujemne- związek jest negatywny b=0 - między zmiennymi nie ma zależności

7 Równanie regresji Wartości przewidywane a wartości resztowe Linia regresji wyraża najlepszą predykcję zmiennej zależnej (Y) przy danych zmiennych niezależnych (X). Zazwyczaj mamy do czynienia z odchyleniami punktów pomiarowych od linii regresji Wartość resztowa: odchylenie danego punktu na wykresie od linii regresji (czyli od jego wartości przewidywanej)

8 Równanie regresji Wariancja resztowa a R2 Im mniejsza wariancja wartości resztowych wokół linii regresji w stosunku do zmienności ogólnej, tym lepsza jakość predykcji.

9 Równanie regresji Wariancja resztowa a R2 Brak zależności pomiędzy zmiennymi X i Y - stosunek zmienności resztowej Y do zmienności całkowitej równa się 1,0. X i Y ściśle (w sensie zależności funkcyjnej) zależne od siebie- zmienność resztowa równa się 0 i taki stosunek również 0,0. Najczęściej: stosunek zmienności resztowej Y do zmienności całkowitej zawiera się gdzieś pomiędzy tymi wartościami ekstremalnymi.

10 Równanie regresji Wariancja resztowa a R2 1 minus ten stosunek= R2 (współczynnik determinacji)- wskaźnik jakości dopasowania modelu do danych Bliski 1,0 wskazuje, że prawie cała zmienność zmiennej zależnej może być objaśniona przez zmienne niezależne włączone do modelu).

11 Równanie regresji Wariancja resztowa a R2 1 minus ten stosunek= R2 (współczynnik determinacji)- wskaźnik jakości dopasowania modelu do danych Interpretacja: Gdyby wartość R2 wynosiła 0,4 wówczas wiadomo byłoby, że wariancja wartości Y wokół linii regresji wynosi 1-0,4 razy pierwotna wariancja Y (40% pierwotnej zmienności Y zostało wytłumaczone przez regresję, a 60% pozostało w zmienności resztowej).

12 Równanie regresji Interpretacja współczynnika korelacji R Stopień, w jakim dwie lub więcej zmiennych objaśniających (niezależnych lub X) jest powiązanych ze zmienną objaśnianą (zmienna zależna Y), wyrażany jest przez wartość współczynnika korelacji R (pierwiastek kwadratowy z R2). W regresji wielorakiej R może przyjmować wartości pomiędzy 0 i 1.

13 Równanie regresji Założenia i ograniczenia założenie braku obserwacji odstających (normalności rozkładów zmiennych) założenie liniowości założenie normalności reszt wybór liczby zmiennych

14 Równanie regresji Założenia i ograniczenia Założenie braku obserwacji odstających: należy przeanalizować pod tym kątem wykresy P-P. histogramy, przeprowadzić testy normalności.

15 Równanie regresji Założenia i ograniczenia Założenie liniowości: założenie, że zależność między zmiennymi jest liniowa. Rada: przeanalizowanie pod tym kątem dwuwymiarowych wykresów rozrzutu badanych zmiennych.

16 Równanie regresji Założenia i ograniczenia Założenie normalności reszt: reszty (różnice między wartością obserwowaną a obliczoną z równania regresji) podlegają rozkładowi normalnemu.

17 Równanie regresji Założenia i ograniczenia Wybór liczby zmiennych: Zaleca się, aby brać do analizy przynajmniej około 10 do 20 razy więcej przypadków niż występuje w niej zmiennych. W przeciwnym wypadku oceny linii regresji będą bardzo niestabilne i będą się silnie zmieniać wraz ze wzrostem liczby przypadków.


Pobierz ppt "Regresja wieloraka. Ogólny problem obliczeniowy: dopasowanie linii prostej do zbioru punktów. Najprostszy przypadek - jedna zmienna zależna i jedna zmienna."

Podobne prezentacje


Reklamy Google