Analiza współzależności zjawisk

Slides:



Advertisements
Podobne prezentacje
Regresja i korelacja materiały dydaktyczne.
Advertisements

BADANIE KORELACJI ZMIENNYCH
Analiza wariancji jednoczynnikowa
Metody analizy współzależności cech (zmiennych)
Skale pomiarowe – BARDZO WAŻNE
BUDOWA MODELU EKONOMETRYCZNEGO
Elementy Modelowania Matematycznego
Jak mierzyć asymetrię zjawiska?
Jak mierzyć zróżnicowanie zjawiska? Wykład 4. Miary jednej cechy Miary poziomu Miary dyspersji (zmienności, zróżnicowania, rozproszenia) Miary asymetrii.
Miary jednej cechy Miary poziomu Miary dyspersji Miary asymetrii (skośności)
Analiza współzależności
ANALIZA STRUKTURY SZEREGU NA PODSTAWIE MIAR STATYSTYCZNYCH
MIARY ZMIENNOŚCI Główne (wywołujące zmienność systematyczną)
Analiza współzależności
Krzysztof Jurek Statystyka Spotkanie 4. Miary zmienności m ó wią na ile wyniki są rozproszone na konkretne jednostki, pokazują na ile wyniki odbiegają
Statystyczne parametry akcji
Statystyczne parametry akcji
Statystyka w doświadczalnictwie
BIOSTATYSTYKA I METODY DOKUMENTACJI
Analiza korelacji.
Korelacje, regresja liniowa
Analiza współzależności dwóch zjawisk
Wykład 4. Rozkłady teoretyczne
Metody Symulacyjne w Telekomunikacji (MEST) Wykład 6/7: Analiza statystyczna wyników symulacyjnych  Dr inż. Halina Tarasiuk
Średnie i miary zmienności
Korelacja, autokorelacja, kowariancja, trendy
Elementy Rachunku Prawdopodobieństwa i Statystyki
Analiza współzależności cech statystycznych
dr hab. Ryszard Walkowiak prof. nadzw.
Elementy Rachunku Prawdopodobieństwa i Statystyki
Współczynnik: Pearsona, Spearmana, Czuprowa
Rozkłady wywodzące się z rozkładu normalnego standardowego
BADANIE STATYSTYCZNE Badanie statystyczne to proces pozyskiwania danych na temat rozkładu cechy statystycznej w populacji. Badanie może mieć charakter:
Analiza wariancji jednoczynnikowa.
Statystyka – zadania 4 Janusz Górczyński.
Hipotezy statystyczne
Finanse 2009/2010 dr Grzegorz Szafrański pokój B106 Termin konsultacji poniedziałek:
Podstawy statystyki, cz. II
Regresja wieloraka.
Metody analizy współzależności dwóch cech Mieczysław Kowerski
Przedmiot: Ekonometria Temat: Szeregi czasowe. Dekompozycja szeregów
 Ekonometria – dziedzina zajmująca się wykorzystaniem specyficznych metod statystycznych dostosowanych do badań nieeksperymentalnych.  Ekonometria to.
STATYSTYKA Pochodzenie nazwy:
Narzędzia.
MODELOWANIE ZMIENNOŚCI CEN AKCJI
Analiza portfeli dwu- oraz trzy-akcyjnych
Podstawowe pojęcia i terminy stosowane w statystyce
Statystyczne parametry akcji Średnie Miary rozproszenia Miary współzależności.
Statystyczna analiza danych w praktyce
Jak mierzyć asymetrię zjawiska? Wykład 5. Miary jednej cechy  Miary poziomu  Miary dyspersji (zmienności, zróżnicowania, rozproszenia)  Miary asymetrii.
Statystyczna analiza danych
Statystyczna analiza danych
Statystyczna analiza danych
Korelacje dwóch zmiennych. Korelacje Kowariancja.
STATYSTYKA – kurs podstawowy wykład 9 dr Dorota Węziak-Białowolska Instytut Statystyki i Demografii.
Treść dzisiejszego wykładu l Weryfikacja statystyczna modelu ekonometrycznego –błędy szacunku parametrów, –istotność zmiennych objaśniających, –autokorelacja,
Przeprowadzenie badań niewyczerpujących, (częściowych – prowadzonych na podstawie próby losowej), nie daje podstaw do formułowania stanowczych stwierdzeń.
ze statystyki opisowej
STATYSTYKA – kurs podstawowy wykład 13 dr Dorota Węziak-Białowolska Instytut Statystyki i Demografii.
STATYSTYKA – kurs podstawowy wykład 8 dr Dorota Węziak-Białowolska Instytut Statystyki i Demografii.
Modele nieliniowe sprowadzane do liniowych
STATYSTYKA – kurs podstawowy wykład 11
Zmienna losowa dwuwymiarowa Dwuwymiarowy rozkład empiryczny Zakład Statystyki Stosowanej Instytut Statystyki i Demografii Kolegium Analiz Ekonomicznych.
Treść dzisiejszego wykładu l Metoda Najmniejszych Kwadratów (MNK) l Współczynnik determinacji l Koincydencja l Kataliza l Współliniowość zmiennych.
Jak mierzyć zróżnicowanie zjawiska?
Regresja wieloraka – bada wpływ wielu zmiennych objaśniających (niezależnych) na jedną zmienną objaśnianą (zależą)
Jednorównaniowy model regresji liniowej
Analiza współzależności zjawisk
MIARY STATYSTYCZNE Warunki egzaminu.
Korelacja i regresja liniowa
Zapis prezentacji:

Analiza współzależności zjawisk

Analiza współzależności Punktem wyjścia do badania współzależności cech są dane, w których dla każdej jednostki statystycznej określono wartości dwóch cech: X i Y. Mamy więc zbiór n jednostek i przyporządkowane im pary cech (xi, yi), i = 1, 2, ... n.

Szereg szczegółowy dla dwóch obserwowanych cech

Tablica korelacyjna

Przykład

Dane pogrupowane w tablicy korelacyjnej

Współzależność występująca między cechami może być dwojakiego rodzaju: funkcyjna (dokładna) stochastyczna (probabilistyczna). Szczególnym przypadkiem zależności stochastycznej jest zależność korelacyjna (statystyczna).

Współzależność funkcyjna Polega na tym, że zmiana wartości jednej zmiennej powoduje ściśle określoną zmianę wartości drugiej zmiennej. Określonej wartości jednej zmiennej X odpowiada jedna i tylko jedna i tylko jedna wartość drugiej zmiennej Y.

Zależność stochastyczna Występuje wtedy, gdy wraz ze zmianą jednej zmiennej zmienia się rozkład prawdopodobieństwa drugiej zmiennej

Zależność korelacyjna (statystyczna) Polega na tym, że określonym wartościom jednej zmiennej odpowiadają ściśle określone średnie wartości drugiej zmiennej. Można zatem ustalić, jak zmieni się - średnio biorąc - wartość zmiennej zależnej Y w zależności od wartości zmiennej niezależnej X.

Przy badaniu współzależności cech przyjmuje się zwykle jedną cechę za niezależną (objaśniającą), której zmienność jest uwarunkowana czynnikami zewnętrznymi, a drugą za zmienną zależną (objaśnianą), tzn. jej wahania próbuje się wyjaśnić (przynajmniej częściowo) zmiennością cechy niezależnej. Zależność korelacyjna może być obustronna lub jednostronna.

Tablica korelacyjna W tablicy korelacyjnej zawarte są dwa rodzaje rozkładów: brzegowe i warunkowe. Rozkład brzegowy prezentuje strukturę wartości jednej zmiennej (X lub Y) bez względu na kształtowanie się wartości drugiej zmiennej. Rozkład brzegowy zmiennej X tworzy pierwsza i ostatnia kolumna tablicy, natomiast rozkład brzegowy zmiennej Y - pierwszy i ostatni wiersz.

Rozkład brzegowy zmiennej X - powierzchnia użytkowa mieszkań (m2)

Rozkład brzegowy zmiennej Y - liczba mieszkańców

Rozkład warunkowy prezentuje strukturę wartości jednej zmiennej (X lub Y), pod warunkiem, że druga zmienna przyjęła określoną wartość. Rozkładów warunkowych zmiennej X jest tyle, ile jest wariantów zmiennej Y, i na odwrót.

Np. rozkład warunkowy zmiennej X pod warunkiem, że Y=2

Np. rozkład warunkowy zmiennej Y pod warunkiem, że X=(70-90>

Rozkłady brzegowe i warunkowe mogą być scharakteryzowane pewnym sumarycznymi wielkościami. W analizie korelacji szczególnie użytecznymi miarami są: średnia arytmetyczna i wariancja (lub odchylenie standardowe)

Średnie arytmetyczne z rozkładów brzegowych

Średnie z rozkładów warunkowych

Jeżeli wraz ze wzrostem (spadkiem) konkretnych wartości jednej zmiennej obserwuje się wzrost (spadek) warunkowych średnich drugiej zmiennej, to fakt ten świadczy o istnieniu korelacji dodatniej między zmiennymi. Przeciwny kierunek tych zmian świadczy o istnieniu korelacji ujemnej.

Wariancje brzegowe

Wariancje warunkowych rozkładów

Cecha X jest stochastycznie niezależna od cechy Y, jeżeli spełnione są jednocześnie następujące warunki: Cecha Y jest stochastycznie niezależna od cechy X, jeżeli spełnione są jednocześnie następujące warunki:

Niezależność korelacyjną - będącą szczególnym przypadkiem niezależności stochastycznej - definiujemy następująco: zmienna X jest korelacyjnie niezależna od zmiennej Y, jeżeli średnie warunkowe zmiennej X są równe; zmienna Y jest korelacyjnie niezależna od zmiennej X, jeśli średnie warunkowe zmiennej Y są sobie równe.

Dwie cechy mierzalne 1. Kowariancja dla szeregu szczegółowego dla szeregu w tablicy korelacyjnej

Kowariancja Jest to: miara symetryczna; przyjmuje wartości z przedziału <‑SxSy, SxSy>; informuje o kierunku korelacji między zmiennymi.

Dane pogrupowane w tabeli korelacyjnej

Współczynnik korelacji liniowej Pearsona: Jest to: miara symetryczna; przyjmuje wartości z przedziału <‑1,1>; informuje o sile oraz kierunku korelacji liniowej między zmiennymi. Dwie cechy mierzalne

Kierunek zależności rxy= 0 świadczy o braku korelacji liniowej między badanymi cechami (możliwe, że istnieje między nimi korelacja krzywoliniowa!), rxy> 0 informuje nas, że mamy do czynienia z korelacją dodatnią (wraz ze wzrostem wartości jednej cechy wzrasta średnia warunkowa drugiej), rxy< 0 korelacja jest ujemna (wzrostowi wartości jednej cechy towarzyszy spadek średniej warunkowej drugiej). przy rxy= 1 lub -1 mamy liniową zależność funkcyjną.

W analizach statystycznych zwykle przyjmuje się, że jeżeli rxy wynosi: mniej niż 0,2 - praktycznie brak związku liniowego między badanymi cechami, może występować korelacja krzywoliniowa; <0,2-0,4) - zależność liniowa wyraźna, lecz niska; <0,4-0,7) - zależność umiarkowana; <0,7-0,9) - zależność znacząca; <0,9-1> zależność bardzo silna.

Współczynnik determinacji liniowej R2=rxy2 podaje, jaka część zmienności cechy zależnej jest wyjaśniona zmiennością cechy niezależnej. Dwie cechy mierzalne

3. Współczynnik korelacji kolejnościowej (rang) Spearmana Rxy miara korelacji, wygodna i użyteczna dla niezbyt długich szeregów szczegółowych z dwoma cechami mierzalnymi (lub przynajmniej posiadającymi pewien naturalny porządek pozwalający na ustawienie wartości rosnąco lub malejąco) . Wartość Rxy należy do przedziału <-1,1> i mówi o sile oraz kierunku korelacji. Dwie cechy mierzalne

Współczynnik rang Spearmana Rxy gdzie di są różnicami między kolejnymi numerami (rangami) nadawanymi w kolejności niemalejącej (lub nierosnącej) osobno dla każdej cechy od 1 do n. Jeżeli kilka elementów w szeregu ma taką samą wartość jednej cechy, to nadaje im się rangi będące średnią arytmetyczną przypadających na te elementy rang.

Dwie cechy niemierzalne, dwie cechy mierzalne, cecha niemierzalna i cecha mierzalna Współczynnik zbieżności Czuprowa

Współczynnik zbieżności Czuprowa Wymaga ona danych pogrupowanych w tablicy korelacyjnej

Współczynniki zbieżności Czuprowa przyjmuje wartości z przedziału [0,1]. Im współczynnik zbieżności jest bliższy zeru, tym zależność między zmiennymi jest słabsza. Do oceny natężenia korelacji między zmiennymi X i Y wykorzystuje się obok współczynnika zbieżności również współczynnik determinacji: Miara ta wskazuje w ilu procentach zmienność zmiennej zależnej jest określana zmiennością zmiennej niezależnej.

Przykład:W 600-osobowej losowo dobranej grupie ludzi przeprowadzono badanie ankietowe mające na celu uzyskanie odpowiedzi na pytanie: „Czy istnieje zależność między wykształceniem telewidzów a rodzajem programu, który najchętniej oglądają?” Otrzymane dane przedstawiono w empirycznej tablicy korelacyjnej:

Współczynnik zbieżności Czuprowa: