Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Metody rozwiązywania układów równań liniowych. Metody skończone: Metoda Gaussa Metoda Gaussa-Jordana Metody Choleskiego Metoda Householdera Metoda sprzężonych.

Podobne prezentacje


Prezentacja na temat: "Metody rozwiązywania układów równań liniowych. Metody skończone: Metoda Gaussa Metoda Gaussa-Jordana Metody Choleskiego Metoda Householdera Metoda sprzężonych."— Zapis prezentacji:

1 Metody rozwiązywania układów równań liniowych

2 Metody skończone: Metoda Gaussa Metoda Gaussa-Jordana Metody Choleskiego Metoda Householdera Metoda sprzężonych gradientów Metody iteracyjne dla dużych układów równań: Metoda Jacobiego Metoda Gaussa-Seidla

3 Metoda eliminacji Gaussa z wyborem elementu głównego w kolumnie Układ równań sprowadzamy do postaci trójkątnej Układ z macierzą trójkątną można następnie łatwo rozwiązać zaczynając od obliczenia wartości x n z n-tego równania, następnie wstawić x n do równania n-1 i wyliczyć z niego x n-1, następnie wstawić x n oraz x n-1 do równania n-2 i wyliczyć x n-2 aż do dotarcia do równania pierwszego i wyznaczenia x 1.

4 1.Wybieramy równanie i takie, że |a i1 | jest największym elementem w pierwszej kolumnie po czym przestawiamy i-te równanie na początek i eliminujemy x 1 z równań od 2 do n. 2.Procedurę powtarzamy z macierzą A (1) o rozmiarach (n-1)x(n-1) i wektorem b (1) o rozmiarze n-1, eliminując z nich drugą zmienną i otrzymując macierz A (2) o rozmiarach (n-2)x(n-2) i wektor b (2) o rozmiarze n-2. W ten sam sposób postępujemy z kolejnymi macierzami A (2), A (3),..., A (n-1) oraz wektorami b (2), b (3),..., b (n-1).

5 Dla j-tego kroku Po zakończeniu operacji otrzymujemy układ równań z macierzą trójkątną p jest liczbą przestawień wierszy macierzy A podczas sprowadzania układu równań do postaci trójkątnej.

6 3.Z otrzymanego układu równań z macierzą trójkątną wyznaczamy po kolei x n, x n-1,..., x 1. Wysiłek obliczeniowy (liczba mnożeń i dzieleń) w metodzie eliminacji Gaussa: Faktoryzacja macierzy A: n(n 2 -1)/3 operacji Przekształcenie wektora b: n(n-1)/2 operacji Obliczenie x: n(n+1)/2 operacji. Razem: n 3 /3+n 2 -n/3n 3 /3 operacji. Kod źródłowy metody eliminacji Gaussa.

7 Metody typu Choleskiego dla macierzy symetrycznych silnie nieosobliwych LTLT L D L klasyczna metoda Choleskiego tylko dla macierzy dodatnio określonych.

8 Postępowanie przy rozwiązywaniu układów równań metodą faktoryzacji Choleskiego. 1.Wyznaczenie faktorów L i D. Układ przyjmuje postać LDL T x=b 2. Obliczenie pomocniczego wektora w. w=L -1 b przez rozwiązanie układu równań Lw=b. Ponieważ L jest macierzą trójkątną dolną układ ten rozwiązuje się wyliczając kolejno w 1, w 2,…, w n podobnie jak w koncowym etapie eliminacji Gaussa. 3. Obliczenie z=D -1 w (D jest macierzą diagonalną więc po prostu dzielimy w i przez d ii. Ten etap nie występuje w klasycznej metodzie Choleskiego. 4. Obliczenie x poprzez rozwiązanie układu równań z macierzą trójkątną górną L T x=z Ten etap jest identyczny z ostatnim etapem metody eliminacji Gaussa. Metoda wymaga ok. n 3 /6 operacji (2 razy mniej niż metoda eliminacji Gaussa). Uwaga: klasyczna metoda Choleskiego wymaga ponadto n pierwiastkowań.

9 Klasyczna faktoryzacja Choleskiego (A=LL T )

10 Faktoryzacja bezpierwiastkowa kod źródłowykod źródłowy

11 Regresja nieliniowa f jest funkcją nieliniową względem parametrów p 1, p 2,…, p m.

12 Przykład problemu nieliniowego linearyzowalnego: kinetyka reakcji pierwszego rzędu

13 Przykład problemu nieliniowego nielinearyzowalngo: kinetyka reakcji pierwszego rzędu z produktem przejściowym

14 regresja nieważona regresja ważona

15 Metoda Newtona-Gaussa Rozwijamy funkcję f dla każdego punktu pomiarowego w otoczeniu arbitralnego przybliżenia parametrów p 0 w szereg Taylora

16 W ten sposób dostajemy funkcję liniową względem przyrostów parametrów p (0). Macierz J nazywa się macierzą Jacobiego zagadnienia a wektor r wektorem reziduów.

17 regresja nieważona regresja ważona

18 Algorytm Newtona-Gaussa 1.Wybieramy przybliżenie parametrów p (0). 2.Obliczamy wektor reziduów oraz sumę kwadratów odchyleń (0). 3.Obliczamy macierz Jacobiego a następnie macierz i wektor wyrazów wolnych układu równań. 4.Obliczamy wektor przyrostów parametrów p (0). 5.Obliczamy p (1) =p (0) + p (0) a następnie nową sumę kwadratów odchyleń. 6.Jeżeli przyrosty parametrów są odpowiednio małe, zmiana sumy kwadratów odchyleń jest odpowiednio mała lub przekroczono dopuszczalną liczbę iteracji, kończymy procedurę. Jeżeli nie, przechodzimy do punktu 3 wstawiając p (1) za p (0) i (1) za (0). Zbieżność metody Gaussa jest na ogół rzędu pierwszego. Tylko jeżeli rezidua dla optymalnego rozwiązania są zerowe zbieżność jest kwadratowa. Szybkość zbieżności zależy bardzo silnie od wielkości końcowych reziduów.

19 Metoda Newtona-Gaussa może być niestabilna szczególnie jeżeli rezidua odpowiadające początkowym przybliżeniom parametrów są duże i wskaźnik uwarunkowania macierzy J T J jest duży. Można ją jednak poprawić stosując skracanie przyrostów parametrów. Szukamy takiego, że (p (0) + p (0) )< (p (0) ). Teoretycznie takie zawsze istnieje, ponieważ kierunek metody Newtona-Gaussa jest kierunkiem poprawy.

20 Wyznaczanie : Metoda Hartleya: wyznaczamy tak, żeby zminimalizować jako funkcję a (minimalizacja kierunkowa) Metoda ta zwykle nie jest stosowana w takiej wersji ze względu na czasochłonność; zwykle kończy się jak tylko (1) < (0). Proste skracanie kroku: Zakładamy, że =2 -k gdzie k jest liczbą całkowitą dobraną tak, że F(1)

21 Metoda Levenberga-Marquardta (metoda Marquardta) Zamiast układu równań normalnych z metody Newtona-Gaussa rozwiązujemy układ następujący: Macierz D jest dodatnią macierzą diagonalną; zwykle D=I lub D=diag{(J T J) 11,…,(J T J) mm }. dobiera się tak aby uzyskać zmniejszenie sumy kwadratów odchyleń w stosunku do poprzedniej iteracji. Dowód, że metoda jest metodą kierunku poprawy przebiega jak w przypadku metody Newtona-Gaussa ze skracaniem kroku. W pierwotniej wersji Levenberga a było dobierane tak aby uzyskać minimum w funkcji (kosztowne).

22 Metoda Marquardta: 1.Na początku przyjmujemy. 2.W każdej kolejnej iteracji przyjmujemy najpierw (p) = (p-1) /V. 3.Obliczamy (p) ( ). 4.Jeżeli (p) ( )< (p-1) przechodzimy do następnej iteracji z nową wartością. 5.Jeżeli (p) ( )>= (p-1) i nie przekroczono maksymalnej dopuszczalnej wartości liczby krokow modyfikacji wstawiamy := *V i przechodzimy do punktu 3. Jeżeli przekroczono maksymalną liczbę kroków kończymy optymalizację. Metoda Marquardta jest jedną z najodporniejszych metod minimalizacji sum kwadratów. Niepowodzenie optymalizacji jest na ogół sygnałem błędu w programie (najczęściej błędnemu obliczeniu pochodnych).

23 Macierz wariancji-kowariancji parametrów: Wariancja resztowa: Odchylenia standardowe:

24 Metoda Newtona w rozwiązywaniu problemu regresji nieliniowej Warunek konieczny minimum regresja nieważona regresja ważona regresja nieważona regresja ważona

25 Otrzymujemy zatem układ m równań nieliniowych z m niewiadomymi, który można rozwiązać metodą Newtona. H – hesjan (Hessian) funkcji. Macierz J T J: dodatnio określona część hesjanu (występuje w metodzie Newtona-Gaussa.

26 Algorytm Newtona dla zagadnienia regresji nieliniowej: 1.Wybrać początkowe przybliżenia parametrów p(0). 2.Dla k-tej iteracji obliczyć rezidua, funkcję minimalizowaną, macierz Jacobiego oraz drugie pochodne wielkości mierzonych względem parametrów. 3.Rozwiązać układ równań H (k) p (k) =J T(k) r (k) 4.Jeżeli || p (k) ||


Pobierz ppt "Metody rozwiązywania układów równań liniowych. Metody skończone: Metoda Gaussa Metoda Gaussa-Jordana Metody Choleskiego Metoda Householdera Metoda sprzężonych."

Podobne prezentacje


Reklamy Google