Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

ANALIZA WSPÓŁZALEŻNOŚCI ZJAWISK. Analiza współzależności Współczynnik korelacji liniowej Pearsona Współczynnik korelacji rang Spearmana Analiza zależności.

Podobne prezentacje


Prezentacja na temat: "ANALIZA WSPÓŁZALEŻNOŚCI ZJAWISK. Analiza współzależności Współczynnik korelacji liniowej Pearsona Współczynnik korelacji rang Spearmana Analiza zależności."— Zapis prezentacji:

1 ANALIZA WSPÓŁZALEŻNOŚCI ZJAWISK

2 Analiza współzależności Współczynnik korelacji liniowej Pearsona Współczynnik korelacji rang Spearmana Analiza zależności Liniowa funkcja regresji Badanie niezależności dwóch cech jakościowych

3 ISTOTA KORELACJI I REGRESJI KORELACJA daje możliwość stwierdzenia, czy istnieje związek (niekoniecznie przyczynowo-skutkowy) miedzy badanymi cechami (zmiennymi) oraz jaka jest jego siła i kierunek REGRESJA daje możliwość oszacowania (estymacji) wartości jednej cechy (zmiennej zależnej, objaśnianej) na podstawie wartości przyjmowanych przez drugą cechę (zmienną niezależną, objaśniającą) FUNKCJA REGRESJI, której parametry można oszacować przy pomocy metody najmniejszych kwadratów (MNK). Równanie opisujące związek statystyczny między zmiennymi nazywa się równaniem lub modelem regresji.

4 Sir Francis Galton – , prekursor badań nad inteligencją, statystyk, meteorolog, antropolog, kryminolog. Pisarz, lekarz. W 1899 r. w pracy Naturalna dziedziczność ogłosił, że rozmiary nasion groszku pachnącego mają tendencję w kolejnych generacjach do powracania (to regress) do swego średniego rozmiaru, podobnego związku dopatrzył się także między wzrostem syna i ojca itd. Dopasowywał do tych par liczb linię prostą opisującą tę zależność

5 Zależność przyczynowa – rodzaj zależności, w której jesteśmy w stanie wskazać, która ze zmiennych stanowi przyczynę zmian, a która ilustruje skutek. Przykładem zależności przyczynowej może być związek pomiędzy stażem pracy (przyczyna) i wysokością zarobków (skutek). Zależność pozorna – pomiędzy dwoma zjawiskami wydaje się istnieć zależność, ale jest ona wywołana istnieniem wspólnej przyczyny. Przykładowo waga i poziom cholesterolu w organizmie wydają się być powiązane ze sobą, niemniej jednak jest to zależność pozorna. W rzeczywistości posiadają wspólną przyczynę – ilość i rodzaj spożywanych produktów Zależność korelacyjna – zależność w której dla konkretnej wartości jednej zmiennej Xi (zmienna objaśniająca) odpowiada średnia arytmetyczna z kilku wartości drugiej zmiennej Y1, Y2,...(zmienna objaśniania).

6 Zmienna niezależna – zmienna która wywołuje zmiany, stanowi ich przyczynę. Zmienna zależna – zmienna, której wartości są w mniejszym lub większym stopniu kształtowane przez zmienną niezależną (zmienne niezależne). Stwierdzenie braku zależności w jednych okolicznościach, nie przesądza o jej nieistnieniu w innych okolicznościach Wykres korelacyjny (rozrzutu) – dla każdego i-tego przypadku nanosimy na układ współrzędnych punkt o współrzędnych (X i, Y i ), gdzie Xi i Yi to kolejne wartości badanych zmiennych.

7 WSPÓŁCZYNNIK KORELACJI PEARSONA

8 Przykład Dla sześciu studentów zmierzono czas pisania egzaminu oraz uzyskaną liczbę punktów. Obliczenia rozpoczynamy od ustalenia średnich dla zmiennej X (czas pisania) oraz Y (liczba punktów): WSPÓŁCZYNNIK KORELACJI PEARSONA

9

10

11

12

13 Korelacja ujemna, wyraźna Korelacja niewyraźna, znikoma Korelacja ujemna, b.silna Korelacja dodatnia, b.silna

14 Współczynnik korelacji rang Spearmana służy do opisu siły korelacji dwóch cech w przypadku gdy: Cechy są mierzalne, a badana zbiorowość jest nieliczna. Cechy mają charakter jakościowy i istnieje możliwość ich uporządkowania. Współczynnik korelacji rang Spearmana stosuje się do analizy współzależności obiektów pod względem cechy dwuwymiarowej (X, Y). Kolejne etapy wyznaczania współczynnika korelacji rang Spearmana są następujące: 1.Jednostki danej zbiorowości statystycznej, ze względu na wielkość odpowiadającej im pierwszej cechy, porządkuje się. 2.Tak uporządkowanym ze względem na pierwszą cechę jednostkom, przypisuje się kolejne numery począwszy od 1. Jeżeli kilka jednostek ma tę samą wielkość cechy, wtedy z odpowiadających im kolejnych rang oblicza się średnią arytmetyczną i przydziela wszystkim jednostkom, z których ta średnia została obliczona. Następna jednostka otrzymuje już najbliższą, niewykorzystaną dotąd rangę. Ostatni numer powinien równać się łącznej liczbie jednostek. 3.Następnie dla jednostek drugiej cechy w analogiczny sposób przypisuje się numery począwszy od 1 (dla jednostki o najniższej lub najwyższej wartości). WSPÓŁCZYNNIK KORELACJI RANG SPEARMANA

15

16

17

18

19 W modelach regresji zależność pomiędzy jedną lub większą ilością zmiennych niezależnych (predykatory, zmienne wyjaśniające) a zmienną zależną (zmienna wyjaśniana) przedstawiamy w postaci tak zwanej funkcji regresji. Poniżej przedstawiono przykłady wykorzystania modeli regresji do rozwiązywania praktycznych problemów: Określenie zależności pomiędzy wiekiem, poziomem wykształcenia (mierzonym na przykład przez liczbę lat), stażem pracy a wysokością zarobków w danej branży. Określeniem wpływu działań marketingowych (mierzonych na przykład wydatkami na reklamy telewizyjne, prasowe, billboardy, etc.) na przyszłą sprzedaż produktu. Określenie wpływu wieku, wagi, aktywności ruchowej (mierzonej na przykład liczbą godzin w tygodniu przeznaczoną na uprawianie sportu) a kondycją fizyczną (mierzoną na przykład wynikiem biegu na 1km). FUNKCJA REGRESJI

20 Karol Fryderyk Gauss, ur. w 1777 roku w Niemczech. Ojciec Karola był pomocnikiem murarskim i swojego syna początkowo przeznaczał do podobnej kariery. Na szczęście niepospolity talent młodziutkiego Gaussa objawił się na tyle wcześnie i w sposób tak ewidentny, że znalazł się oświecony i możny sponsor, dzięki któremu matematyka nie straciła jednego ze swoich najwybitniejszych uczonych. Nauczycielu matematyki kazał swoim uczniom (8-9letnim) obliczyć sumę liczb od 1 do 100. Karol po pięciu minutach przedstawił kartkę z rzeczywiście króciutkim wywodem: 123… … … 101x50=5050 Jeszcze jako uczeń gimnazjum Gauss sformułował metodę najmniejszych kwadratów

21 Funkcja regresji - to narzędzie do badania powiązań między zmiennymi. Funkcja regresji to analityczny wyraz przyporządkowania średnich wartości zmiennej zależnej konkretnym wartością zmiennej niezależnej. Dużym problemem jest wybór postaci analitycznej funkcji dla danego problemu. Ułatwieniem może być sporządzenie m.in. wykresu rozrzutu, gdzie dla każdej (i-tej) pary wartości zmiennej niezależnej (X) i zmiennej zależnej (Y) tworzymy punkt o współrzędnych Xi, Yi. Jeżeli zmiennych niezależnych jest więcej, wówczas konstruujemy odpowiednio większą ilość wykresów rozrzutu, przedstawiających zależność pomiędzy każdą zmienną niezależną (oś pozioma) a zmienną niezależną. Z wykresu (wykresów) odczytujemy prawdopodobny rodzaj zależności pomiędzy zmiennymi niezależnymi a zmienną zależną. FUNKCJA REGRESJI

22

23

24 Mamy do czynienia tylko z jedną zmienną niezależną X. Zależność pomiędzy zmienną niezależną X a zmienną zależną Y ma charakter liniowy. Naszym zadaniem jest wyznaczenie liniowej funkcji regresji, o ogólnej postaci: y = a + bx Gdzie: y - wartość przewidywana na podstawie wartości x a - parametr a jest nazywany wyrazem wolnym i odpowiada wartości funkcji y dla argumentu x = 0 b - współczynnik kierunkowy, który decyduje o tym, czy funkcja jest rosnąca, czy malejąca oraz jak szybko następują zmiany (jeśli b jest dodatnie, to funkcja jest rosnąca – to znaczy, im większe wartości zmiennej x, tym większe wartości funkcji, czyli y) Do wyznaczenia parametrów tej funkcji (a i b) wykorzystuje się metodę najmniejszych kwadratów. FUNKCJA REGRESJI

25

26 Po wyznaczeniu parametrów funkcji regresji liniowej należy ocenić poziom dopasowania funkcji regresji do rzeczywistych danych. Sprowadza się to do odniesienia generowanych przez funkcję regresji wartości teoretycznych do wartości zaobserwowanych. Wykorzystuje się w tym celu szereg miar, do najczęściej stosowanych należą: odchylenie standardowe reszt, współczynnik zbieżności oraz współczynnik determinacji. Wartości teoretyczne obliczamy podstawiając do funkcji regresji liniowej wartości zmiennej niezależnej X. Przykład Dla pewnej funkcji regresji liniowej: y = 250 – 2x Obliczamy wartości teoretyczne dla zmiennej niezależnej x równej 10 oraz 11. Dla x = 10 otrzymujemy: y = 250 – 2*10 = 230 Dla x = 11 otrzymujemy: y = 250 – 2*11 = 228 FUNKCJA REGRESJI

27 JAKOŚĆ DOPASOWANIA FUNKCJI REGRESJI

28

29

30

31

32 W wyjaśnianiu wielu zjawisk istotną rolę odgrywają zmienne niemierzalne, tj. jakościowe. I tak, na wielkość popytu na dany produkt oprócz jego walorów użytkowych wielki wpływ ma marka. Dotyczy to w szczególności takich produktów jak samochody, odzież, zegarki czy sprzęt elektroniczny. W analizie wydajności pracy w rozmaitych zawodach istotną rolę odgrywa płeć pracownika. Ma ona także wpływ na wynagrodzenie. To ostanie z kolei w sposób oczywisty zależy od stanowiska. Wielkość dochodów ludności zależy od kraju, który ona zamieszkuje, itd. Podobne wielkości występują przy analizie rozmaitych procesów chemicznych czy fizycznych (np. rodzaj użytego tworzywa, sposób (technika) obróbki, itp.) Wartości zmiennej jakościowej nazywamy kategoriami lub wariantami. Jeśli różnych kategorii zmiennej jakościowej jest stosunkowo niewiele, to zmienną taką możemy łatwo włączyć do modelu regresji.

33 Zmiennej jakościowej nie wprowadzamy do modelu bezpośrednio. Zamiast jednej zmiennej jakościowej wprowadzamy odpowiednią liczbę zmiennych skazujących z którym wariantem wartości zmiennej jakościowej mamy w danym momencie do czynienia. W poniższym przykładzie zmienną jakościową jest kierunek studiów: student koszty studiów kierunek studiów odległość od uczelni liczba poprawek Ania3.2 Ekon. 500 Michał2.8 Adm. 100 Wojtek3.6 Inf. 202 Agnieszka2.9 Adm. 01 Ula3 Inf. 200 student koszty studiów kierunek studiów odległość od uczelni liczba poprawek Ania3.2 Ekon. 500 Michał2.8 Adm. 100 Wojtek3.6 Inf. 202 Agnieszka2.9 Adm. 01 Ula3 Inf. 200

34 Trzeba tę zmienną odpowiednio zakodować. Wprowadzamy tyle zmiennych, ile wariantów (tu: trzy – Ekonomia, Administracja, Informatyka). student koszty studiów kierunek studiów odległość od uczelni liczba poprawek Adm.Ekon.Inf. Ania3.2 Ekon Michał2.8 Adm Wojtek3.6 Inf Agnieszka2.9 Adm Ula3 Inf W obliczeniach nie uwzględniamy jednego wariantu, który tym samym staje się punktem odniesienia. Współczynniki regresji mówią o tym, o ile wartość zmiennej jest wyższa/niższa dla danego uwzględnionego wariantu w porównaniu z wariantem wykluczonym.

35 Przyjmijmy, że równanie przyjęło następującą postać: Koszty studiów = 1,5 + 20*odl.od uczelni + 15*l.poprawek – 30*Administracja – 25*Ekonomia Z powyższego zapisu wynika, że Informatyka to wyłączona kategoria i jest ona dla nas punktem odniesienia. I tak koszty studiów: Wzrastają średnio o 20 zł wraz ze zwiększeniem odległości Wzrastają średnio o 15 zł wraz z każdą kolejną poprawką Są o 30 zł niższe dla kierunku Administracja w porównaniu z Informatyką Są o 25 zł niższe dla kierunku Ekonomia w porównaniu z Informatyką

36 Dla danych jakościowych, mierzonych na skali nominalnej lub porządkowej analizę współzależności zwykle rozpoczynamy od utworzenia tabeli krzyżowej. W pierwszej kolumnie warianty cechy X, natomiast w pierwszym wierszu tabeli umieszczamy warianty zmiennej Y. Możliwe jest także utworzenie tabeli krzyżowej dla zmiennych ilościowych, mierzonych na skali przedziałowej lub ilorazowej. Wówczas gdy liczba wszystkich przyjmowanych wartości przez zmienną X i Y (liczbę możliwych wartości będziemy oznaczać symbolami k i l) jest względnie mała, wpisujemy je wszystkie w odpowiednie wiersze i kolumny. W przypadku dużej liczby możliwych wartości niezbędne jest ich pogrupowanie przy użyciu przedziałów klasowych. WSPÓŁZALEŻNOŚC CECH JAKOŚCIOWYCH

37 W tym przypadku jako zmienną X przyjęliśmy Płeć, natomiast jako zmienną Y przyjęliśmy Ukończenie studiów MBA. Obie zmienne są jakościowe, wyrażane przy pomocy skali nominalnej. Obie posiadają dwa możliwe warianty (k = l = 2). WSPÓŁZALEŻNOŚC CECH JAKOŚCIOWYCH

38

39

40

41

42

43

44

45 Współczynnik V Cramera – miara oparta na statystyce chi-kwadrat (podobnie jak współczynnik phi). Dla tabel o wymiarze 2x2 daje takie same wyniki jak współczynnik Phi. W przeciwieństwie do współczynnika Phi, miarę V-Cramera można stosować dla tabel o większych wymiarach. Współczynnik Lambda – miara zależności oparta na proporcjonalnej redukcji błędu, gdy wartości zmiennej niezależnej są używane do predykcji wartości zmiennej zależnej. Wartość lambda wynosząca 1 oznacza, że na podstawie wartości zmiennej niezależnej można jednoznacznie przewidzieć wartość zmiennej zależnej. Wartość 0 oznacza, że zmienna niezależna nie jest pomocna w przewidywaniu zmiennej zależnej WSPÓŁZALEŻNOŚC CECH JAKOŚCIOWYCH

46

47 Współczynnik V Cramera min(k,r) to mniejsza z liczb wierszy lub kolumn Slajdy przedstawiają sposób obliczania chi-kwadrat (czyli wartości pod pierwiastkiem, w liczniku )

48 Na przykład: zapytano 260 osób o to, czy korzystają z bezpłatnych darmowych badań profilaktycznych dowolnego typu. Zebrane dane przedstawiono w tabeli. Czy istnieje zależność między korzystaniem z takiej oferty i miejscem zamieszkania? 48 Miejsce zamieszkania Korzystanie z badań profilaktycznych Razem częstorzadkonigdy Wieś Miasto Razem

49 Wyliczymy liczebności oczekiwane. Wyniki obliczeń pozostałych liczebności oczekiwanych przedstawiono w tabeli w nawiasach obok wartości obserwowanych. 49 Miejsce zamieszkania Korzystanie z badań profilaktycznych Razem częstorzadkonigdy Wieś29,5447,7550,71128 Miasto30,4649,2552,29132 Razem A jak się to liczy? Mnożymy sumę z wiersza i sumę z kolumny (patrzymy po brzegach), następnie dzielimy przez liczbę wszystkich elementów (tu 260).

50 50 Miejsce zamieszkania Korzystanie z badań profilaktycznych Razem częstorzadkonigdy Wieś 60* * * Miasto 60* * * Razem Miejsce zamieszkania Korzystanie z badań profilaktycznych Razem częstorzadkonigdy Wieś29,5447,7550,71128 Miasto30,4649,2552,29132 Razem I stąd jest

51 Następny krok to porównanie liczebności empirycznych i teoretycznych, a końcowym efektem jest obliczona wartość statystyki chi-kwadrat. 51 A jak się to liczy? We wnętrzu tabeli: liczebność empiryczna minus teoretyczna, podnosimy do kwadratu, dzielimy przez teoretyczną. Miejsce zamieszkania Korzystanie z badań profilaktycznych Razem częstorzadkonigdy Wieś3,080,162,986,22 Miasto2,990,152,896,03 Razem6,070,315,8712,25 Miejsce zamieszkania Korzystanie z badań profilaktycznych Razem częstorzadkonigdy Wieś (20-29,54) 2 29,54 (45-47,75) 2 47,75 (63-50,71) 2 50,71 6,22 Miasto (40-30,36) 2 30,46 (52-49,25) 2 49,25 (40-52,29) 2 52,29 6,03 Razem6,070,315,8712,25

52 Tak więc wartość obliczona chi-kwadrat = 12,25 Sprawdźmy teraz V Cramera: 52 W takiej sytuacji formułujemy wniosek końcowy: Istnieje mało wtraźna zależność między miejscem zamieszkania a częstotliwością korzystania z badań profilaktycznych.

53 Współczynnik gamma - miara związku między dwoma zmiennymi. Przyjmuje wartości z przedziału od -1 do 1. Wartość bezwzględna współczynnika bliska 1 wskazuje na silną zależność pomiędzy zmiennymi. Wartości bliskie zero wskazują na brak lub słabą zależność. Współczynnik tau-b Kendalla – nieparametryczna miara korelacji dla zmiennych porządkowych, uwzględniająca powiązania rang. Znak współczynnika wskazuje na kierunek zależności, a jego wartość bezwzględna ukazuje siłę związku. Większe wartości bezwzględne wskazują na silniejsze zależności. Współczynnik przyjmuje wartości z zakresu od -1 do +1, jednak wartości -1 lub +1 mogą być uzyskane tylko dla tabel kwadratowych. Współczynnik tau-c Kendalla – nieparametryczna miara zależności dla zmiennych porządkowych, która nie uwzględnia powiązań. Znak współczynnika wskazuje na kierunek zależności, a jego wartość bezwzględna wskazuje na siłę związku. Większe wartości bezwzględne wskazują na silniejsze zależności. Współczynnik przyjmuje wartości z zakresu od -1 do +1. Jednak wartości -1 lub +1 mogą zostać otrzymane jedynie dla tabel kwadratowych. Współczynnik d Sommersa – miara związku między dwiema zmiennymi porządkowymi, która przyjmuje wartości z przedziału od -1 do 1. Wartości bliskie 1, w swojej wartości bezwzględnej, wskazują na silny związek pomiędzy dwiema zmiennymi, zaś wartości bliskie 0 oznaczają brak lub słaby związek pomiędzy tymi zmiennymi. Współczynnik eta – miara związku, przyjmująca wartości z zakresu od 0 do 1. Wartości bliskie 0 wskazują na słaby związek pomiędzy zmiennymi wierszowymi i kolumnowymi, a bliskie 1 na silny związek pomiędzy tymi zmiennymi. Eta jest odpowiednia dla zmiennej zależnej mierzonej na skali przedziałowej i zmiennej niezależnej o ograniczonej liczbie wartości (kategorii). Liczone są dwie wartości eta: jedna dla zmiennej wierszowej, traktowanej jako zmienna przedziałowa, druga - dla zmiennej kolumnowej, traktowanej jako przedziałowa. WSPÓŁZALEŻNOŚC CECH JAKOŚCIOWYCH

54 Zadanie 1. W dwóch klasach licealnych uczniowie dokonywali ocen postaci polskiej historii pod względem ich znaczenia. Przypisywali im rangi poczynając od 1 przypisanej postaci najważniejszej. W jakim stopniu uczniowie tych klas byli zgodni w swych ocenach? Wyniki rangowania dokonanego przez uczniów były następujące: PostaćRangi przypisane przez klasę Ia Rangi przypisane przez klasę Ib Mieszko I23 Bolesław Chrobry34 Władysław Łokietek55 Kazimierz Wielki42 Jadwiga66 Władysław Jagiełło11

55 Zadanie 2. W badaniach kwestionariuszowych pytano respondentów czy znają swoich przedstawicieli w organach różnych stopniu samorządu terytorialnego oraz w sejmie. Uzyskano następujące wyniki, zaprezentowane w poniższej tabeli. Należy zbadać, czy miejsce zamieszkania i znajomość przedstawicieli w organach samorządu terytorialnego są współzależne. Znajomość przedstawicieli w organach samorządu i sejmie Miejsce zamieszkania Razem WieśMiasta do 50 tys. mieszk. Miasta powyżej 50 tys. mieszk. Rada gminy/miasta Samorząd powiatowy Samorząd wojewódzki Sejm Razem


Pobierz ppt "ANALIZA WSPÓŁZALEŻNOŚCI ZJAWISK. Analiza współzależności Współczynnik korelacji liniowej Pearsona Współczynnik korelacji rang Spearmana Analiza zależności."

Podobne prezentacje


Reklamy Google