Analiza korelacji
Wielowymiarowa zmienna losowa Wynik eksperymentu, który wyrażamy ciągiem n liczb nazywamy n-wymiarową zmienną losową. Jeśli składniki tej zmiennej są ciągłe, można zdefiniować funkcję gęstości prawdpodobieństwa, analogicznie jak w przypadku jednowymiarowym.
Dwuwymiarowy rozkład normalny Jeśli obydwa składniki dwuwymiarowej zmiennej losowej podlegają rozkładom normalnym, to mamy do czynienia z dwuwymiarowym rozkładem normalnym. Do pełnego scharakteryzowanie tego rozkładu potrzeba pięciu parametrów.
Parametry dwuwymiarowego rozkładu normalnego Rozkład każdego ze składników rozpatrywany oddzielnie nazywa się rozkładem brzegowym. Mamy więc po dwa parametry rozkładów brzegowych: i dla pierwszego składnika (x) i dla drugiego składnika (y) Piątym parametrem jest wsp. korelacji
Funkcja gęstości dwuwymiarowego r. norm.
Współczynnik korelacji
Współczynnik korelacji
Współczynnik korelacji
Estymator współczynnika korelacji Pomiary to zbiór n par (xi , yi ) sx i sy to estymatory odchylenia standar-dowego liczone oddzielnie dla x i y.
Przedział ufności dla współczynnika korelacji Przybliżony przedział ufności można wyznaczać z tego wzoru tylko dla dużych prób (n > 100) Należy pamiętać o zawsze obowiązującej nierówności:
Test istnienia korelacji H0: Test może być: jednostronny H1: dwustronny H1: Do weryfikacji służy statystyka Ma ona rozkład t-Studenta z n-2 st.swob.
Test korelacji H0 odrzucamy, gdy: dla testu jednostronnego dla testu dwustronnego
Miary korelacji Współczynnik korelacji można określić dla dowolnej funkcji gęstości dwuwymia-rowego rozkładu prawdopodobieństwa. Współczynnik ten nazywa się wsp. korel. Pearsona. Kwadrat tego współczynnika, zwany współczynnikiem determinacji, mówi jaki procent wariancji zmiennej Y wynika z liniowej zależności od X.
Inne miary korelacji Współczynnik Pearsona nie jest dobrą miarą, gdy obie zmienne powiązane są nieliniową zależnością. wsp. korel. rang Spearmana współczynnik Kendalla miara zależności D Höffdinga
Metoda najmniejszych kwadratów
Metoda najmniejszych kwadratów Przykład: modelowanie farmakokinetyczne Vd [l] – objętość dystrybucji Cl [l/h] – klirens
MNK: przykład
MNK: przykład
MNK Najlepsze oszacowania (estymaty) parametrów modelu otrzymujemy wybierając je tak, aby suma kwadratów różnic wartości zmierzonych i przewidywanych osiągnęła minimum. W naszym przykładzie:
MNK: przykład
Metoda najmniejszych kwadratów Metoda najmniejszych kwadratów jest ważną metodą estymacji parametrów. Pozwala nie tylko oszacować nieznane parametry, ale także ocenić ich odchylenia standardowe i korelacje między parametrami.
Metoda najmniejszych kwadratów MNK jest szczególnie użyteczna przy sporządzaniu krzywych kalibracji. Pozwala również ocenić błędy przewidywań na podstawie tak wyznaczonych krzywych. Istnieje wiele wariantów MNK. Wszystkie one są wnioskami z bardzo ogólnego postulatu, zwanego metodą największej wiarygodności.
Metoda największej wiarygodności (MNW) Funkcja wiarygodności (ang. likelihood) określa prawdopodobieństwo uzyskania otrzymanych wyników pomiarów w zależności od parametrów modelu. W naszym przykładzie: MNW uczy, że jako estymaty szukanych parametrów należy przyjąć takie ich wartości przy których funkcja wiarygodności L osiąga maksimum.
MNW W przedstawionym przykładzie MNK wyprowa-dzono na podstawie modelu: Jest to tzw. zwykła MNK. Innym często spotykanym wariantem jest ważona MNK wynikająca z modelu stałego współczynnika zmienności:
Ważona MNK W ważonej MNK w minimalizowanej funkcji celu uwzględnia się wagi pomiarów. Im mniejszy błąd (wariancja) pomiaru tym większa waga. W naszym przykładzie: