Regresja liniowa Dany jest układ punktów x x – zmienna objaśniająca (nie obarczona błędem) y – zmienna zależna (obarczona błędem) Naszym zadaniem jest poprowadzenie „najlepszej” prostej przez te punkty.
Wyznaczanie optymalnych parametrów a i b
Macierz wariancji-kowariancji wyznaczonych parametrów równania prostej sr2 – wariancja resztowa
Ocena wyników regresji: Test dobroci dopasowania (c2) Test istotności efektu liniowego (współczynnik korelacji) y x
współczynnik determinacji (ułamek wyjaśnionej wariancji) r > 0 – korelacja dodatnia r<0 – korelacja ujemna |r|>0.7 – dobra korelacja 0.3<|r|<0.7 – słaba korelacja |r|<0.3 – brak korelacji
Bardziej ogólny przypadek dopasowywania równania prostej: regresja ważona
Linearyzacja Mamy dopasować funkcję nieliniową y=f(x,y;a.b) Przekształcamy funkcję do takiej postaci aby uzyskać postać zlinearyzowaną y=ax+b Gdzie y jest nową zmienną zależną, x nową zmienną objaśniającą a a i b są nowymi parametrami, przy czym ogólnie x=x(x,y), y=y(x,y), a=a(a,b), b=b(a,b)
Przykład problemu nieliniowego linearyzowalnego: kinetyka reakcji pierwszego rzędu
Jeżeli chcemy postępować poprawnie to należy wykonać regresję ważoną, wyliczając wagi poszczególnych przekształconych zmiennych objaśniających zgodnie z rachunkiem błędów. W poprzednim przykładzie
Inne przykłady linearyzacji: Równanie Michalisa-Mentena Równanie Hilla
Obie zmienne są obarczone porównywalnym błędem Sposób: regresja ortogonalna sy sx y x Poprawiona wartość wagi zależy od a, które jest parametrem regresji. Problem liniowy przekształca się w nieliniowy. Problem można obejść przeprowadzając najpierw “zwykłą” regresję i wyznaczyć przybliżone a, następnie wstawić a do wzoru na wagi i przeprowadzić regresję jeszcze raz.
Regresja uogólniona albo analiza konfluentna (x,y) x y (x*,y*)
Przykład problemu nieliniowego nielinearyzowalngo: kinetyka reakcji pierwszego rzędu z produktem przejściowym
Regresja liniowa wielokrotna Zmienne objaśniające x1,x2,…,xm nie muszą odpowiadać różnym wielkościom lecz mogą być funkcjami tej samej wielkości mierzonej (np. jej kolejnymi potęgami w przypadku dopasowywania wielomianów).
regresja nieważona regresja ważona
Przypadek szczególny: dopasowywanie wielomianu
Test F dla istotności efektu liniowego Test F dla istotności włączenia nowych parmetrów
Przykład dopasowywania wielomianu: rozkład cosinusa kąta rozpraszania mezonów K z protonami (zakładamy że sj=sqrt(yj). j tj=cos(Qj) yj 1 -0.9 81 2 -0.7 50 3 -0.5 35 4 -0.3 27 5 -0.1 26 6 0.1 60 7 0.3 106 8 0.5 189 9 0.7 318 10 0.9 520
m p1 p2 p3 p4 p5 p6 f M F F0.9 1 57.85 9 833.55 - 2 82.66 99.10 8 585.45 3.92 3.458 47.27 185.96 273.61 7 36.41 105.55 3.589 4 37.94 126.55 312.02 137.59 6 2.85 70.65 3.776 5 39.62 119.10 276.49 151.91 52.60 1.68 3.48 4.060 39.88 121.39 273.19 136.58 56.90 16.72 1.66 0.05 4.545