ANALIZA WSPÓŁZALEŻNOŚCI ZJAWISK
Analiza współzależności Współczynnik korelacji liniowej Pearsona Współczynnik korelacji rang Spearmana Analiza zależności Liniowa funkcja regresji Badanie niezależności dwóch cech jakościowych
ISTOTA KORELACJI I REGRESJI KORELACJA daje możliwość stwierdzenia, czy istnieje związek (niekoniecznie przyczynowo-skutkowy) miedzy badanymi cechami (zmiennymi) oraz jaka jest jego siła i kierunek REGRESJA daje możliwość oszacowania (estymacji) wartości jednej cechy (zmiennej zależnej, objaśnianej) na podstawie wartości przyjmowanych przez drugą cechę (zmienną niezależną, objaśniającą) FUNKCJA REGRESJI, której parametry można oszacować przy pomocy metody najmniejszych kwadratów (MNK). Równanie opisujące związek statystyczny między zmiennymi nazywa się równaniem lub modelem regresji.
Sir Francis Galton – 1822-1911, prekursor badań nad inteligencją, statystyk, meteorolog, antropolog, kryminolog. Pisarz, lekarz. W 1899 r. w pracy „Naturalna dziedziczność” ogłosił, że rozmiary nasion groszku pachnącego mają tendencję w kolejnych generacjach do powracania (to regress) do swego średniego rozmiaru, podobnego związku dopatrzył się także między wzrostem syna i ojca itd. Dopasowywał do tych par liczb linię prostą opisującą tę zależność
Zależność przyczynowa – rodzaj zależności, w której jesteśmy w stanie wskazać, która ze zmiennych stanowi przyczynę zmian, a która ilustruje skutek. Przykładem zależności przyczynowej może być związek pomiędzy stażem pracy (przyczyna) i wysokością zarobków (skutek). Zależność pozorna – pomiędzy dwoma zjawiskami wydaje się istnieć zależność, ale jest ona wywołana istnieniem wspólnej przyczyny. Przykładowo waga i poziom cholesterolu w organizmie wydają się być powiązane ze sobą, niemniej jednak jest to zależność pozorna. W rzeczywistości posiadają wspólną przyczynę – ilość i rodzaj spożywanych produktów Zależność korelacyjna – zależność w której dla konkretnej wartości jednej zmiennej Xi (zmienna objaśniająca) odpowiada średnia arytmetyczna z kilku wartości drugiej zmiennej Y1, Y2, ...(zmienna objaśniania).
Zmienna niezależna – zmienna która wywołuje zmiany, stanowi ich przyczynę. Zmienna zależna – zmienna, której wartości są w mniejszym lub większym stopniu kształtowane przez zmienną niezależną (zmienne niezależne). Stwierdzenie braku zależności w jednych okolicznościach, nie przesądza o jej nieistnieniu w innych okolicznościach Wykres korelacyjny (rozrzutu) – dla każdego i-tego przypadku nanosimy na układ współrzędnych punkt o współrzędnych (Xi, Yi), gdzie Xi i Yi to kolejne wartości badanych zmiennych.
WSPÓŁCZYNNIK KORELACJI PEARSONA
Przykład Dla sześciu studentów zmierzono czas pisania egzaminu oraz uzyskaną liczbę punktów. Obliczenia rozpoczynamy od ustalenia średnich dla zmiennej X (czas pisania) oraz Y (liczba punktów): WSPÓŁCZYNNIK KORELACJI PEARSONA
WSPÓŁCZYNNIK KORELACJI PEARSONA
WSPÓŁCZYNNIK KORELACJI PEARSONA
WSPÓŁCZYNNIK KORELACJI PEARSONA
WSPÓŁCZYNNIK KORELACJI PEARSONA
Korelacja niewyraźna, znikoma Korelacja ujemna, b.silna Korelacja dodatnia, b.silna Korelacja ujemna, wyraźna
WSPÓŁCZYNNIK KORELACJI RANG SPEARMANA Współczynnik korelacji rang Spearmana służy do opisu siły korelacji dwóch cech w przypadku gdy: Cechy są mierzalne, a badana zbiorowość jest nieliczna. Cechy mają charakter jakościowy i istnieje możliwość ich uporządkowania. Współczynnik korelacji rang Spearmana stosuje się do analizy współzależności obiektów pod względem cechy dwuwymiarowej (X, Y). Kolejne etapy wyznaczania współczynnika korelacji rang Spearmana są następujące: Jednostki danej zbiorowości statystycznej, ze względu na wielkość odpowiadającej im pierwszej cechy, porządkuje się. Tak uporządkowanym ze względem na pierwszą cechę jednostkom, przypisuje się kolejne numery począwszy od 1. Jeżeli kilka jednostek ma tę samą wielkość cechy, wtedy z odpowiadających im kolejnych rang oblicza się średnią arytmetyczną i przydziela wszystkim jednostkom, z których ta średnia została obliczona. Następna jednostka otrzymuje już najbliższą, niewykorzystaną dotąd rangę. Ostatni numer powinien równać się łącznej liczbie jednostek. Następnie dla jednostek drugiej cechy w analogiczny sposób przypisuje się numery począwszy od 1 (dla jednostki o najniższej lub najwyższej wartości).
WSPÓŁCZYNNIK KORELACJI RANG SPEARMANA
WSPÓŁCZYNNIK KORELACJI RANG SPEARMANA
WSPÓŁCZYNNIK KORELACJI RANG SPEARMANA
WSPÓŁCZYNNIK KORELACJI RANG SPEARMANA
FUNKCJA REGRESJI W modelach regresji zależność pomiędzy jedną lub większą ilością zmiennych niezależnych (predykatory, zmienne wyjaśniające) a zmienną zależną (zmienna wyjaśniana) przedstawiamy w postaci tak zwanej funkcji regresji. Poniżej przedstawiono przykłady wykorzystania modeli regresji do rozwiązywania praktycznych problemów: Określenie zależności pomiędzy wiekiem, poziomem wykształcenia (mierzonym na przykład przez liczbę lat), stażem pracy a wysokością zarobków w danej branży. Określeniem wpływu działań marketingowych (mierzonych na przykład wydatkami na reklamy telewizyjne, prasowe, billboardy, etc.) na przyszłą sprzedaż produktu. Określenie wpływu wieku, wagi, aktywności ruchowej (mierzonej na przykład liczbą godzin w tygodniu przeznaczoną na uprawianie sportu) a kondycją fizyczną (mierzoną na przykład wynikiem biegu na 1km).
Karol Fryderyk Gauss, ur. w 1777 roku w Niemczech Karol Fryderyk Gauss, ur. w 1777 roku w Niemczech. Ojciec Karola był pomocnikiem murarskim i swojego syna początkowo przeznaczał do podobnej kariery. Na szczęście niepospolity talent młodziutkiego Gaussa objawił się na tyle wcześnie i w sposób tak ewidentny, że znalazł się oświecony i możny sponsor, dzięki któremu matematyka nie straciła jednego ze swoich najwybitniejszych uczonych. Nauczycielu matematyki kazał swoim uczniom (8-9letnim) obliczyć sumę liczb od 1 do 100. Karol po pięciu minutach przedstawił kartkę z rzeczywiście króciutkim wywodem: 1 2 3 … 50 100 99 98 51 101 101x50=5050 Jeszcze jako uczeń gimnazjum Gauss sformułował metodę najmniejszych kwadratów
FUNKCJA REGRESJI Funkcja regresji - to narzędzie do badania powiązań między zmiennymi. Funkcja regresji to analityczny wyraz przyporządkowania średnich wartości zmiennej zależnej konkretnym wartością zmiennej niezależnej. Dużym problemem jest wybór postaci analitycznej funkcji dla danego problemu. Ułatwieniem może być sporządzenie m.in. wykresu rozrzutu, gdzie dla każdej (i-tej) pary wartości zmiennej niezależnej (X) i zmiennej zależnej (Y) tworzymy punkt o współrzędnych Xi, Yi. Jeżeli zmiennych niezależnych jest więcej, wówczas konstruujemy odpowiednio większą ilość wykresów rozrzutu, przedstawiających zależność pomiędzy każdą zmienną niezależną (oś pozioma) a zmienną niezależną. Z wykresu (wykresów) odczytujemy prawdopodobny rodzaj zależności pomiędzy zmiennymi niezależnymi a zmienną zależną.
FUNKCJA REGRESJI
FUNKCJA REGRESJI
FUNKCJA REGRESJI Mamy do czynienia tylko z jedną zmienną niezależną X. Mamy do czynienia tylko z jedną zmienną niezależną X. Zależność pomiędzy zmienną niezależną X a zmienną zależną Y ma charakter liniowy. Naszym zadaniem jest wyznaczenie liniowej funkcji regresji, o ogólnej postaci: y = a + bx Gdzie: y - wartość przewidywana na podstawie wartości x a - parametr a jest nazywany wyrazem wolnym i odpowiada wartości funkcji y dla argumentu x = 0 b - współczynnik kierunkowy, który decyduje o tym, czy funkcja jest rosnąca, czy malejąca oraz jak szybko następują zmiany (jeśli b jest dodatnie, to funkcja jest rosnąca – to znaczy, im większe wartości zmiennej x, tym większe wartości funkcji, czyli y) Do wyznaczenia parametrów tej funkcji (a i b) wykorzystuje się metodę najmniejszych kwadratów.
FUNKCJA REGRESJI
Dla pewnej funkcji regresji liniowej: y = 250 – 2x FUNKCJA REGRESJI Po wyznaczeniu parametrów funkcji regresji liniowej należy ocenić poziom dopasowania funkcji regresji do rzeczywistych danych. Sprowadza się to do odniesienia generowanych przez funkcję regresji wartości teoretycznych do wartości zaobserwowanych. Wykorzystuje się w tym celu szereg miar, do najczęściej stosowanych należą: odchylenie standardowe reszt, współczynnik zbieżności oraz współczynnik determinacji. Wartości teoretyczne obliczamy podstawiając do funkcji regresji liniowej wartości zmiennej niezależnej X. Przykład Dla pewnej funkcji regresji liniowej: y = 250 – 2x Obliczamy wartości teoretyczne dla zmiennej niezależnej x równej 10 oraz 11. Dla x = 10 otrzymujemy: y = 250 – 2*10 = 230 Dla x = 11 otrzymujemy: y = 250 – 2*11 = 228
JAKOŚĆ DOPASOWANIA FUNKCJI REGRESJI
JAKOŚĆ DOPASOWANIA FUNKCJI REGRESJI
JAKOŚĆ DOPASOWANIA FUNKCJI REGRESJI
JAKOŚĆ DOPASOWANIA FUNKCJI REGRESJI
JAKOŚĆ DOPASOWANIA FUNKCJI REGRESJI
W wyjaśnianiu wielu zjawisk istotną rolę odgrywają zmienne niemierzalne, tj. jakościowe. I tak, na wielkość popytu na dany produkt oprócz jego walorów użytkowych wielki wpływ ma marka. Dotyczy to w szczególności takich produktów jak samochody, odzież, zegarki czy sprzęt elektroniczny. W analizie wydajności pracy w rozmaitych zawodach istotną rolę odgrywa płeć pracownika. Ma ona także wpływ na wynagrodzenie. To ostanie z kolei w sposób oczywisty zależy od stanowiska. Wielkość dochodów ludności zależy od kraju, który ona zamieszkuje, itd. Podobne wielkości występują przy analizie rozmaitych procesów chemicznych czy fizycznych (np. rodzaj użytego tworzywa, sposób (technika) obróbki, itp.) Wartości zmiennej jakościowej nazywamy kategoriami lub wariantami. Jeśli różnych kategorii zmiennej jakościowej jest stosunkowo niewiele, to zmienną taką możemy łatwo włączyć do modelu regresji.
W poniższym przykładzie zmienną jakościową jest kierunek studiów: Zmiennej jakościowej nie wprowadzamy do modelu bezpośrednio. Zamiast jednej zmiennej jakościowej wprowadzamy odpowiednią liczbę zmiennych skazujących z którym wariantem wartości zmiennej jakościowej mamy w danym momencie do czynienia. W poniższym przykładzie zmienną jakościową jest kierunek studiów: student koszty studiów kierunek studiów odległość od uczelni liczba poprawek Ania 3.2 Ekon. 50 Michał 2.8 Adm. 10 Wojtek 3.6 Inf. 20 2 Agnieszka 2.9 1 Ula 3 student koszty studiów kierunek studiów odległość od uczelni liczba poprawek Ania 3.2 Ekon. 50 Michał 2.8 Adm. 10 Wojtek 3.6 Inf. 20 2 Agnieszka 2.9 1 Ula 3
Trzeba tę zmienną odpowiednio zakodować. Wprowadzamy tyle zmiennych, ile wariantów (tu: trzy – Ekonomia, Administracja, Informatyka). student koszty studiów kierunek studiów odległość od uczelni liczba poprawek Adm. Ekon. Inf. Ania 3.2 50 1 Michał 2.8 10 Wojtek 3.6 20 2 Agnieszka 2.9 Ula 3 W obliczeniach nie uwzględniamy jednego wariantu, który tym samym staje się punktem odniesienia. Współczynniki regresji mówią o tym, o ile wartość zmiennej jest wyższa/niższa dla danego uwzględnionego wariantu w porównaniu z wariantem wykluczonym.
Przyjmijmy, że równanie przyjęło następującą postać: Koszty studiów = 1,5 + 20*odl.od uczelni + 15*l.poprawek – 30*Administracja – 25*Ekonomia Z powyższego zapisu wynika, że Informatyka to wyłączona kategoria i jest ona dla nas punktem odniesienia. I tak koszty studiów: Wzrastają średnio o 20 zł wraz ze zwiększeniem odległości Wzrastają średnio o 15 zł wraz z każdą kolejną poprawką Są o 30 zł niższe dla kierunku Administracja w porównaniu z Informatyką Są o 25 zł niższe dla kierunku Ekonomia w porównaniu z Informatyką
WSPÓŁZALEŻNOŚC CECH JAKOŚCIOWYCH Dla danych jakościowych, mierzonych na skali nominalnej lub porządkowej analizę współzależności zwykle rozpoczynamy od utworzenia tabeli krzyżowej. W pierwszej kolumnie warianty cechy X, natomiast w pierwszym wierszu tabeli umieszczamy warianty zmiennej Y. Możliwe jest także utworzenie tabeli krzyżowej dla zmiennych ilościowych, mierzonych na skali przedziałowej lub ilorazowej. Wówczas gdy liczba wszystkich przyjmowanych wartości przez zmienną X i Y (liczbę możliwych wartości będziemy oznaczać symbolami k i l) jest względnie mała, wpisujemy je wszystkie w odpowiednie wiersze i kolumny. W przypadku dużej liczby możliwych wartości niezbędne jest ich pogrupowanie przy użyciu przedziałów klasowych.
WSPÓŁZALEŻNOŚC CECH JAKOŚCIOWYCH W tym przypadku jako zmienną X przyjęliśmy Płeć, natomiast jako zmienną Y przyjęliśmy Ukończenie studiów MBA. Obie zmienne są jakościowe, wyrażane przy pomocy skali nominalnej. Obie posiadają dwa możliwe warianty (k = l = 2).
WSPÓŁZALEŻNOŚC CECH JAKOŚCIOWYCH
WSPÓŁZALEŻNOŚC CECH JAKOŚCIOWYCH
WSPÓŁZALEŻNOŚC CECH JAKOŚCIOWYCH
WSPÓŁZALEŻNOŚC CECH JAKOŚCIOWYCH
WSPÓŁZALEŻNOŚC CECH JAKOŚCIOWYCH
WSPÓŁZALEŻNOŚC CECH JAKOŚCIOWYCH
WSPÓŁZALEŻNOŚC CECH JAKOŚCIOWYCH
WSPÓŁZALEŻNOŚC CECH JAKOŚCIOWYCH Współczynnik V Cramera – miara oparta na statystyce chi-kwadrat (podobnie jak współczynnik phi). Dla tabel o wymiarze 2x2 daje takie same wyniki jak współczynnik Phi. W przeciwieństwie do współczynnika Phi, miarę V-Cramera można stosować dla tabel o większych wymiarach. Współczynnik Lambda – miara zależności oparta na proporcjonalnej redukcji błędu, gdy wartości zmiennej niezależnej są używane do predykcji wartości zmiennej zależnej. Wartość lambda wynosząca 1 oznacza, że na podstawie wartości zmiennej niezależnej można jednoznacznie przewidzieć wartość zmiennej zależnej. Wartość 0 oznacza, że zmienna niezależna nie jest pomocna w przewidywaniu zmiennej zależnej
WSPÓŁZALEŻNOŚC CECH JAKOŚCIOWYCH
Współczynnik V Cramera min(k,r) to mniejsza z liczb wierszy lub kolumn Slajdy 46-49 przedstawiają sposób obliczania chi-kwadrat (czyli wartości pod pierwiastkiem, w liczniku )
Korzystanie z badań profilaktycznych Na przykład: zapytano 260 osób o to, czy korzystają z bezpłatnych darmowych badań profilaktycznych dowolnego typu. Zebrane dane przedstawiono w tabeli. Czy istnieje zależność między korzystaniem z takiej oferty i miejscem zamieszkania? Miejsce zamieszkania Korzystanie z badań profilaktycznych Razem często rzadko nigdy Wieś 20 45 63 128 Miasto 40 52 132 60 97 103 260
Korzystanie z badań profilaktycznych Wyliczymy liczebności oczekiwane. Wyniki obliczeń pozostałych liczebności oczekiwanych przedstawiono w tabeli w nawiasach obok wartości obserwowanych. Miejsce zamieszkania Korzystanie z badań profilaktycznych Razem często rzadko nigdy Wieś 29,54 47,75 50,71 128 Miasto 30,46 49,25 52,29 132 60 97 103 260 A jak się to liczy? Mnożymy sumę z wiersza i sumę z kolumny (patrzymy po brzegach), następnie dzielimy przez liczbę wszystkich elementów (tu 260).
Korzystanie z badań profilaktycznych Razem często rzadko nigdy Wieś Miejsce zamieszkania Korzystanie z badań profilaktycznych Razem często rzadko nigdy Wieś 60*128 260 97*128 103*128 128 Miasto 60*132 97*132 103*132 132 60 97 103 I stąd jest Miejsce zamieszkania Korzystanie z badań profilaktycznych Razem często rzadko nigdy Wieś 29,54 47,75 50,71 128 Miasto 30,46 49,25 52,29 132 60 97 103 260
Korzystanie z badań profilaktycznych Razem często rzadko nigdy Wieś Następny krok to porównanie liczebności empirycznych i teoretycznych, a końcowym efektem jest obliczona wartość statystyki chi-kwadrat. Miejsce zamieszkania Korzystanie z badań profilaktycznych Razem często rzadko nigdy Wieś 3,08 0,16 2,98 6,22 Miasto 2,99 0,15 2,89 6,03 6,07 0,31 5,87 12,25 A jak się to liczy? We wnętrzu tabeli: liczebność empiryczna minus teoretyczna, podnosimy do kwadratu, dzielimy przez teoretyczną. Miejsce zamieszkania Korzystanie z badań profilaktycznych Razem często rzadko nigdy Wieś (20-29,54)2 29,54 (45-47,75)2 47,75 (63-50,71)2 50,71 6,22 Miasto (40-30,36)2 30,46 (52-49,25)2 49,25 (40-52,29)2 52,29 6,03 6,07 0,31 5,87 12,25
Tak więc wartość obliczona chi-kwadrat = 12,25 Sprawdźmy teraz V Cramera: W takiej sytuacji formułujemy wniosek końcowy: Istnieje mało wtraźna zależność między miejscem zamieszkania a częstotliwością korzystania z badań profilaktycznych.
WSPÓŁZALEŻNOŚC CECH JAKOŚCIOWYCH Współczynnik gamma - miara związku między dwoma zmiennymi. Przyjmuje wartości z przedziału od -1 do 1. Wartość bezwzględna współczynnika bliska 1 wskazuje na silną zależność pomiędzy zmiennymi. Wartości bliskie zero wskazują na brak lub słabą zależność. Współczynnik tau-b Kendalla – nieparametryczna miara korelacji dla zmiennych porządkowych, uwzględniająca powiązania rang. Znak współczynnika wskazuje na kierunek zależności, a jego wartość bezwzględna ukazuje siłę związku. Większe wartości bezwzględne wskazują na silniejsze zależności. Współczynnik przyjmuje wartości z zakresu od -1 do +1, jednak wartości -1 lub +1 mogą być uzyskane tylko dla tabel kwadratowych. Współczynnik tau-c Kendalla – nieparametryczna miara zależności dla zmiennych porządkowych, która nie uwzględnia powiązań. Znak współczynnika wskazuje na kierunek zależności, a jego wartość bezwzględna wskazuje na siłę związku. Większe wartości bezwzględne wskazują na silniejsze zależności. Współczynnik przyjmuje wartości z zakresu od -1 do +1. Jednak wartości -1 lub +1 mogą zostać otrzymane jedynie dla tabel kwadratowych. Współczynnik d Sommersa – miara związku między dwiema zmiennymi porządkowymi, która przyjmuje wartości z przedziału od -1 do 1. Wartości bliskie 1, w swojej wartości bezwzględnej, wskazują na silny związek pomiędzy dwiema zmiennymi, zaś wartości bliskie 0 oznaczają brak lub słaby związek pomiędzy tymi zmiennymi. Współczynnik eta – miara związku, przyjmująca wartości z zakresu od 0 do 1. Wartości bliskie 0 wskazują na słaby związek pomiędzy zmiennymi wierszowymi i kolumnowymi, a bliskie 1 na silny związek pomiędzy tymi zmiennymi. Eta jest odpowiednia dla zmiennej zależnej mierzonej na skali przedziałowej i zmiennej niezależnej o ograniczonej liczbie wartości (kategorii). Liczone są dwie wartości eta: jedna dla zmiennej wierszowej, traktowanej jako zmienna przedziałowa, druga - dla zmiennej kolumnowej, traktowanej jako przedziałowa.
Wyniki rangowania dokonanego przez uczniów były następujące: Postać Zadanie 1. W dwóch klasach licealnych uczniowie dokonywali ocen postaci polskiej historii pod względem ich znaczenia. Przypisywali im rangi poczynając od 1 przypisanej postaci najważniejszej. W jakim stopniu uczniowie tych klas byli zgodni w swych ocenach? Wyniki rangowania dokonanego przez uczniów były następujące: Postać Rangi przypisane przez klasę Ia Rangi przypisane przez klasę Ib Mieszko I 2 3 Bolesław Chrobry 4 Władysław Łokietek 5 Kazimierz Wielki Jadwiga 6 Władysław Jagiełło 1
Miasta powyżej 50 tys. mieszk. Zadanie 2. W badaniach kwestionariuszowych pytano respondentów czy znają swoich przedstawicieli w organach różnych stopniu samorządu terytorialnego oraz w sejmie. Uzyskano następujące wyniki, zaprezentowane w poniższej tabeli. Należy zbadać, czy miejsce zamieszkania i znajomość przedstawicieli w organach samorządu terytorialnego są współzależne. Znajomość przedstawicieli w organach samorządu i sejmie Miejsce zamieszkania Razem Wieś Miasta do 50 tys. mieszk. Miasta powyżej 50 tys. mieszk. Rada gminy/miasta 53 46 17 116 Samorząd powiatowy 38 32 5 75 Samorząd wojewódzki 19 8 34 61 Sejm 24 15 26 65 134 101 82 317