Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Metody poszukiwania minimów lokalnych funkcji Minimalizacja lokalna: poszukiwanie minimum najbliższego punktowi początkowemu. Przykładem jest znajdowanie.

Podobne prezentacje


Prezentacja na temat: "Metody poszukiwania minimów lokalnych funkcji Minimalizacja lokalna: poszukiwanie minimum najbliższego punktowi początkowemu. Przykładem jest znajdowanie."— Zapis prezentacji:

1 Metody poszukiwania minimów lokalnych funkcji Minimalizacja lokalna: poszukiwanie minimum najbliższego punktowi początkowemu. Przykładem jest znajdowanie lokalnych minimów energii. Minimalizacja globalna: poszukiwanie najmniejszej wartości funkcji w danym obszarze. Przykładem jest teoretyczne przewidywanie najstablilniejszych struktur krystalicznych, struktur natywnych białek, itp. x f(x) punkt początkowy minimum lokalne minimum globalne

2 d (1) x (0) x (1) x (2) d (2) x* x1x1 x2x2 f(x (p) + d (p) ) Ogólne zasady algorytmów znajdowania minimów lokalnych funkcji wielu zmiennych: 1.Wybrać przybliżenie początkowe x (0). 2.W p-tej iteracji ustalić kierunek poszukiwań d (p). 3.Zlokalizować minimum funkcji na kierunku poszukiwań otrzymując x (p+1). Jest to problem minimalizacji funkcji jednej zmiennej. 4.Zakończyć proces, jeżeli została osiągnięta zbieżność lub osiągnięto maksymalną liczbę iteracji.

3 Metody poszukiwania minimum w kierunku (minimalizacja lokalna funkcji jednej zmiennej) 1.Metody bezgradientowe (wykorzystują tylko wartości funkcji). a)Metoda złotego podziału. b)Metoda aproksymacji parabolicznej (Hartleya). 2.Metody gradientowe (wykorzystują wartości funkcji oraz co najmniej wartość pochodnej kierunkowej w kierunku poszukiwań dla =0). a)Metoda ekspansji i kontrakcji przedziału. b)Metoda aproksymacji kwadratowej dwupunktowej (quadratic line search). c)Metoda aproksymacji sześciennej trójpunktowej (cubic line search).

4 Metoda złotego podziału Lemat: Jeżeli funkcja f(x) jest unimodalna (posiada tylko jedno minimum) w przedziale [a,b] to dla określenia podprzedziału, w którym leży punkt stacjonarny należy obliczyć wartość funkcji w dwóch punktach tego przedziału oprócz końców przedziału. xbax1x1 x2x2 xbax1x1 x2x2 f(x) Jeżeli dla a f(x 1 ) i f(x 1 )

5 W metodzie złotego podziału chcemy żeby przedział był zawężany w tym samym stosunku w każdej iteracji. Musi zatem zachodzić: Załóżmy, że minimum jest pomiędzy a i x 2. Wtedy mamy:

6 Aproksymacja paraboliczna (x a,f a ) (x b,f b ) (x c,f c ) (x m,f m ) x f(x)

7 Algorytm aproksymacji parabolicznej: 1.Jeżeli f(0)-f( 0 )>0 to trójkę ( ) konstruujemy jako ( ), jeżeli nie to ( ). 2.Sprawdzamy, f>0. Jeżeli tak to aproksymujemy minimum parabolą przchodzącą przez ( ) jeżeli nie to wykonujemy ekspansję przedziału: ( ) := ( ) lub ( ) := ( )

8 Metoda ekspansji/kontrakcji przedziału z testem jednoskośnym Zakładamy, że f(0)<0 (metoda kierunku poprawy) 1.Przyjmujemy początkwą wartość t. 2.Jeżeli f( ) f(0)+ f(0) (0< <0.5) to następuje ekspansja przedziału w stosunku (tj. := ); proces ten powtarza się aż f( ) f(0)+ f(0). 3.Jeżeli f(t) f(0)+ f(0) (0< <0.5) to następuje kontrakcja przedziału w stosunku (tj. := ); proces ten powtarza się aż f(t)

9 Metoda aproksymacji parabolicznej dwupunktowej z testem jednoskośnym lub dwuskośnym 1.Wybieramy maksymalny krok m, że 2.Jeżeli f( m )>f(0)+f(0) m, aproksymujemy funkcję parabolą wykorzystując wartości funkcji w 0 i tm oraz wartość pochodnej w zerze: W przeciwnym wypadku przyjmujemy *= m. 3. Jeżeli f( *)<=f(0)+ f(0) kończymy iterację. Test dwuskośny:

10 Metody podstawowe kierunków poprawy 1.Metoda Gaussa-Seidla (bezgradientowa). 2.Metoda największego spadku (gradientowa). 3.Metoda Newtona (gradient i hesjan). x1x1 x2x2 Ilustracja metody Gaussa-Seidla

11 Metoda Gaussa-Seidla (bardzo wolna zbieżność liniowa) Metoda największego spadku (zbieżność liniowa) Metoda Newtona (zbieżna kwadratowo ale kosztowna i nie zawsze stabilna)

12 Hybrydą metody Gaussa-Seidla oraz metody największego spadku lub Newtona jest metoda relaksacji grupowej zaproponowana przez Schechtera. W metodzie tej wybiera się w każdej iteracji kierunek odpowiadający tylko części zmiennych (podobnie jak w metodzie Gaussa-Seidla) ale wybiera się go w tej podprzestrzeni zgodnie z wzorem metody największego spadku lub metody Newtona. Metoda ta była stosowana w pakietach MM* i AMBER*; polagała na kolejnym uzmiennianiu współrzędnych poszczególnych atomów. Najefektywniejsze są tzw. metody quasi-newtonowskie, w których w kolejnych iteracjach konstruuje się przybliżenie odwrotności hesjanu.

13 Metoda Davidona-Fletchera-Powella (DFP) Podstawowym założeniem metody jest, że macierz S złożona z kolejnych kierunków poszukiwań [d (1),d (2),…,d (n) ] diagonalizuje hesjan funkcji f w minimum.


Pobierz ppt "Metody poszukiwania minimów lokalnych funkcji Minimalizacja lokalna: poszukiwanie minimum najbliższego punktowi początkowemu. Przykładem jest znajdowanie."

Podobne prezentacje


Reklamy Google