Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Analiza współzależności cech statystycznych

Podobne prezentacje


Prezentacja na temat: "Analiza współzależności cech statystycznych"— Zapis prezentacji:

1 Analiza współzależności cech statystycznych
Dr inż. Dariusz Piwczyński

2 Graficzna ocena zależności
Możliwe sytuacje: Zależności dodatnie Zależności ujemne Brak zależności

3 Wykresy rozrzuty, zależność dodatnia

4 Wykres rozrzutu, zależność ujemna

5 Wykres rozrzutu, zależność dodatnia (b. słaba)

6 Wykres w MS Excel

7 Ostateczny wynik

8 Określanie zależności między cechami za pomocą liczb
Analiza korelacji Analiza regresji

9 Korelacje to zależność między zmiennymi.
Współczynnik korelacji – jest podstawową, najczęściej stosowaną miarą zależności. Określa on ogólną zależność między badanymi cechami. Współczynnik korelacji prostoliniowej (Pearsona)

10 Współczynnik korelacji
rxy jest liczbą niemianowaną, przyjmującą wartości od -1 do +1. rxy zbliżony do „-1” lub „1” – całkowita zależność cech X i Y rxy zbliżony do „0” – brak jakiejkolwiek zależności Skala Guillforda

11 Współczynnik korelacji
Znak korelacji informuje nas o kierunku zależności a wartość bezwzględna o sile zależności rxy = ryx (zależność symetryczna) lub

12 Kowariancja między cechami (Sx)
Jest do średnia z iloczynów odchyłek każdej pary punktu danych. Należy używać kowariancji w celu określenia zależności pomiędzy dwoma zbiorami danych. Na przykład można sprawdzić, czy większe przychody związane są z wyższym poziomem wykształcenia.

13 Badanie istotności współczynnika korelacji
Hipoteza zerowa w przypadku badania zależności między cechami ma następującą postać: H0: =0, zaś alternatywna H1: 0  (ro)

14 Współczynnik korelacji

15 Regresja Regresja prostoliniowa – ocena wartości jednej cechy na podstawie drugiej. Prognozowanie (predykcja) wartości jednej cechy Y na podstawie wartości drugiej cechy X.

16 Współczynnik regresji
Informuje o ile zmieni się wartość jednej zmiennej, jeżeli wartość drugiej zmieni się o jednostkę. Punkty równania szacuje się metodą najmniejszych kwadratów (MNK).

17 Współczynnik regresji
X - zmienna zależna, Y - zmienna niezależna Y - zmienna zależna, X - zmienna niezależna bxy  byx

18 MNK

19 Graficzna interpretacja
b = tg() a

20 Graficzna interpretacja
Prosta regresji: y = a + byx * x b - współczynnik regresji - tangens kąta tworzonego przez prostą regresji i oś OX (skośność - slope) a - odległość punktu przecięcia osi OY przez prostą (wyraz wolny - constant, intercept)

21 Zastosowanie równia regresji
Jeżeli (b) i (a) są znane, to równanie regresji można użyć do przewidywania wartości jednej cechy (Y) na podstawie zmiennej wartości drugiej cechy (X) dla dowolnego elementu populacji. Estymatorami parametrów  i  są wymiary uzyskane z prób: b i a.

22 Zastosowanie równania regresji

23 Wykresy rozrzuty, zależność dodatnia

24 Miary jakości modelu regresji
R2 (współczynnik determinacji) – informacja o tym, w jakim stopniu równanie regresji wyjaśnia zmienność zmiennej zależnej. Przyjmuje wartość od 0 do 1 (0-100%).

25 Współczynnik determinacji

26 Modele regresji model I
Jesteśmy w stanie wyodrębnić zmienną niezależną X i zmienną zależną Y. Zmienna niezależna X nie jest zmienną losową, zależy od eksperymentatora, np. temperatura, liczba osobników. Nie posiada ona rozkładu zgodnego z normalnym. Z kolei zmienna zależna Y jest zmienną losową, a jej rozkład jest zgodny z normalnym. Model I charakteryzuje zależność jednokierunkowa, tj. Y od X. y=a+bx

27 Modele regresji – model II
Obie zmienne mają rozkład zgodny z normalnym, traktowane są równorzędnie. Kłopotliwe jest wyróżnienie zmiennej zależnej i niezależnej, gdyż obie nie znajdują się pod bezpośrednim wpływem eksperymentatora. Zamiast prostej regresji, obliczamy tzw. oś główną zredukowaną. Oś główna zredukowana to linia prosta, której suma powierzchni wszystkich trójkątów (punkt opisujący parę pomiarów połączony równoległymi do osi x i y odcinkami tworzącymi trójkąty prostokątne) jest najmniejsza. Jej postać jest następująca: y=a+x (- ni)

28 REGRESJA WIELOKROTNA Y= b0 + b1X1 + b2X2 + b3X3.... + ei, gdzie:
b0-wyraz wolny; b1, b2, b3 – cząstkowe współczynniki regresji wielokrotnej; e – błąd losowy (reszta); b1 – przyrost wartości zmiennej Y przy zmianie wartości zmiennej niezależnej X1 o jednostkę, niezależnie od pozostałych zmiennych niezależnych.


Pobierz ppt "Analiza współzależności cech statystycznych"

Podobne prezentacje


Reklamy Google