Zakładamy a priori istnienie rozwiązania α układu równań. Przybliżone metody rozwiązywania układów równań nieliniowych – metody iteracyjne Metoda Newtona Zmodyfikowana metoda Newtona Metoda siecznych Zakładamy a priori istnienie rozwiązania α układu równań. Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic
Metody rozwiązywania układów równań nieliniowych – metoda Newtona Układ n równań nieliniowych zawierający n niewiadomych: Znane jest k-te przybliżenie wektora x Funkcje fj należy rozwinąć w szereg Taylora w otoczeniu punktu xk z dokładnością do pierwszych pochodnych. Uzyskano układ n równań liniowych. Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic
Metody rozwiązywania układów równań nieliniowych – metoda Newtona Uzyskano układ n równań liniowych. Z wektorem zmiennych postaci: Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic
Zapis macierzowy układu równań Wartości kolejnych pochodnych dotyczą : Gdzie jest wektorem niewiadomych i W(x)- macierz Jacobiego dla k=0,1,... Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic
Układ nieliniowych równań algebraicznych dla k=0,1,2, ...., oraz dla i=1,2,...,n Metoda Newtona jest zbieżna, jeżeli przybliżenie x0 jest dostatecznie bliskie rozwiązaniu układu równań. Przykład 1 Dany jest układ równań nieliniowych – znaleźć rozwiązania układu dla czterech przybliżeń początkowych:I [1.3,1.2,0.8]; II [10,20,-10];III [-10, -20, 10]; IV [1000,1000,2000] Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic
Modyfikacje metody Newtona – dla dużej liczby niewiadomych n Jednokrotne obliczenie macierzy Jacobiego dla zerowego przybliżenia rozwiązania dla k=0,1,2, ...., oraz Obliczenia iteracyjne dla k=0,1,2... Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic
Nad-kreślony układ równań nieliniowych dla mn Norma Pseudo-rozwiązaniem nad-określonego układu (1) nazywamy takie , dla którego norma (2) osiąga minimum Np.: Jeśli funkcje są różniczkowalne w sposób ciągły: metody minimalizacji gradientowe Jeśli funkcje są nieregularne i nie mają wszędzie ciągłych pochodnych: metody minimalizacji bez-gradientowe z oszczędniejszą normą wektora f(x) tzw. Norma maksimum: Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic
Metody rozwiązywania układów równań nieliniowych – metoda gradientowa – metoda najszybszego spadku NS Jeśli m=n to każde rozwiązanie układu równań nieliniowych jest zerem funkcji U(x) i na odwrót. Wektor x, dla którego U(x)=0 jest pierwiastkiem równania (1). dk- k-ty kierunek poprawy, - współczynnik kroku Współczynnik kroku jest tak dobrany aby: jeżeli to Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic
Metoda najszybszego spadku NS jest to metoda gradientowa, która pozwala szukać minimum różniczkowalnej funkcji nieliniowej f(x). Koncepcja metody wynika z lematu, w którym wykazano, że jeśli istnieje I kierunek d w przestrzeni taki, że oraz to Szczegółowo lemat zostanie przedstawiony w ramach wykładu nr 10. Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic
Algorytm obliczeń – metoda NS Wybierz punkt startowy xo=xk. Oblicz wartość funkcji f(xk) oraz jej gradient f(xk) (2) Zbadaj kryterium zbieżności: Jeśli tak, to koniec, jeśli nie, to przejdź do (3) Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic
(3) Wyznacz kierunek poszukiwań : (4) Wykonaj minimalizację kierunkową wybraną metodą: (5) Podstaw Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic
Do minimalizacji w kierunku można użyć kilku algorytmów takich jak np Algorytmy bez-gradientowe: złotego podziału, aproksymacji kwadratowej, Algorytmy gradientowe: ekspansji i kontrakcji geometrycznej z testem jednoskośnym, logarytmiczny złoty podział odcinka ze wstępną ekspansją i kontrakcją geometryczną, aproksymacji parabolicznej z testem jednoskośnym, bisekcji z testem dwuskośnym Goldstein’a,
Algorytm bisekcji z testem dwuskośnym Golstein’a – algorytm gradientowy Praktycznie do wyszukania punktów spełniających test dwuskośny Goldsteina stosuje się następujący algorytm bisekcji: Oblicz pochodną w kierunku oraz współczynnik kroku (2) Wyznacz (3) Jeśli to podstaw i przejdź do kroku (2), w przeciwnym razie przejdź do kroku (4) (4) Jeśli to podstaw i przejdź do kroku (2), w przeciwnym przypadku koniec. Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic
Działanie algorytmu bisekcji z testem dwuskośnym Goldstein'a dla funkcji: f(x1, x2) = (x1)2 + 2(x2)2 – 6x1 + x1x2 punkt początkowy x0 = (0, 0) kierunek d = (1, 0) współczynnik testu = początkowa wartość współczynnika kroku R = 9 dokładność dla testu Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic
Otrzymano wartość pochodnej p: Pochodna w kierunku zatem mamy: dla x = x0 = (0, 0) Otrzymano wartość pochodnej p: Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic
Przechodzimy do kroku (3) (2) Obliczamy Przechodzimy do kroku (3) Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic
i przejdź do kroku (2). W przeciwnym wypadku przejdź do kroku (4) (3) Jeżeli to podstaw i przejdź do kroku (2). W przeciwnym wypadku przejdź do kroku (4) sprawdzamy: -6,75 <? NIE Przechodzimy do kroku (4) Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic
i przejdź do kroku (2). W przeciwnym wypadku KONIEC (4) Jeżeli to podstaw i przejdź do kroku (2). W przeciwnym wypadku KONIEC sprawdzamy: -6,75 >? TAK i przechodzimy do kroku (2) DRUGA ITERACJA (...) Po trzeciej iteracji otrzymujemy wynik Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic
Działanie algorytmu najszybszego spadku dla funkcji: f(x1, x2) = 2(x1)2 + (x2)2 – 2 x1x2 punkt początkowy x0 = (2, 3) współczynnik testu = początkowa wartość współczynnika kroku R = 1
Ponieważ pierwsza stosowana wartość współczynnika kroku Obliczamy Ponieważ pierwsza stosowana wartość współczynnika kroku R = 1 spełnia test dwuskośny Goldsteina, więc: x1 = x0 + 0 d0 = [0 1]T W drugiej iteracji mamy: Otrzymujemy: Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic
Zatem test dwuskośny ma postać -6 202 - 8 -2 Za pomocą algorytmu bisekcji (test dwuskośny Goldsteina) w trzeciej próbie znajdujemy wartość współczynnika 1 = 0,25 Stąd x = x1 + 1 d1 = [ ]T Postępując zgodnie z algorytmem otrzymujemy kolejne wartości punktów optymalizowanej funkcji. Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic
TAK OTRZYMUJEMY PUNKT MIN (0,0) Kolejno podane są punkty wyznaczone za pomocą algorytmu najszybszego spadku dla funkcji: f(x1, x2) = 2(x1)2 + (x2)2 – 2 x1x2 x0 = [2 3] x1 = [0 1] x2 = [ ] x3 = [ ] x4 = [ ] itd.... I tak kolejno, aż do momentu gdy zostanie spełniony warunek TAK OTRZYMUJEMY PUNKT MIN (0,0) Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic
Funkcja celu f(x) Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic
Kolejne iteracje metody najszybszego spadku NS x0 x1 x3 x2 x5 x4 x^ Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic