Wykład 2 Hiperpowierzchnie energii potencjalnej, czyli mapy układów molekularnych oraz ich opis
Hiperpowierzchnia energii potencjalnej cząsteczki Energia potencjalna cząsteczki w funkcji położeń jąder atomowych
Przemiana izocyjanowodoru w cyjanowodór HNC®HCN
struktura przejściowa Hiperpowierzchnia energii potencjalnej przemiany izocyjanowodoru w cyjanowodór. Obliczenia półempiryczną metodą chemii kwantowej AM1 Energia [kcal/mol] HNC HCN
Wykres konturowy hiperpowierzchni energii potencjalnej HCN struktura przejściowa HNC
H N -C DE╪ HNC HCN DE
Jean-Louis David Napoleon
Powierzchnia energii potencjalnej cząsteczki propanu jako funkcja kątów obrotu grup metylowych
Mapa energii potencjalnej blokowanej reszty alaniny (przykład układu podlegającego przemianom konformacyjnym)
Rozwinięcie energii względem współrzędnych w otoczeniu danego punktu W punkcie stacjonarnym pierwsze pochodne (siły) znikają (ale ten “punkt stacjonarny” może odpowiadać zadaniu które miał rozwiązać Kolumb)
Macierz H nazywa się hesjanem energii V – macierz wektorów własnych
Hiperpowierzchnia energii potencjalnej układu HCN – HNC Energia [kcal/mol] x h h x Okolice minimum odpowiadającego cząsteczce HCN Okolice stanu przejściowego
Uogólnienie na n współrzędnych
Zestawienie charakterystyk punktów krytycznych na hiperpowierzchni energii potencjalnej Minimum: wszystkie wartości własne hesjanu > 0 Odpowiada stabilnemu stanowi układu. Punkt siodłowy pierwszego rzędu): l1<0, l2, …, ln >0 Odpowiada stanowi przejściowemu. Punkty siodłowe wyższych rzędów nie są interesujące. Maksimum: wszystkie wartości własne hesjanu < 0 Nie jest interesujące.
Poszukiwanie lokalnych minimów (minimalizacja lokalna energii) Funkcja kwadratowa jednowymiarowa: rozwiązanie “szkolne” Na podstawie rozwiązania dla funkcji kwadratowej możemy opracować przepis na rozwiązanie przybliżone problemu minimalizacji energii będącej dowolną funkcją jednej zmiennej.
Niech xo będzie punktem początkowym leżącym “dostatecznie blisko” minimum. Znaleziony punkt x* powinien być bliżej minimum niż xo. Możemy teraz podstawić x* za xo i powtarzać postępowanie aż wartości x* w kolejnych iteracjach będą dostatecznie bliskie. Takie postępowanie nazywa się metodą Newtona.
Zbieżność metody Newtona w poszukiwaniu minimum potencjału Buckinghama dla dwóch atomów tlenu d [A] E [kcal/mol] 4.00000 -0.18172 1.89155 446.09119 2.10951 162.16304 2.32647 58.43760 2.54188 20.69536 2.75471 7.06632 2.96304 2.21478 3.16338 0.53472 3.34935 -0.01597 3.50980 -0.17687 3.62772 -0.21332 3.68786 -0.21791 3.70153 -0.21807 3.70214 -0.21807
Uogólnienie metody Newtona na funkcje n zmiennych
Wybrać przybliżenie początkowe x(0). Ogólne zasady algorytmów znajdowania minimów lokalnych funkcji wielu zmiennych: Wybrać przybliżenie początkowe x(0). W p-tej iteracji ustalić kierunek poszukiwań d(p). Zlokalizować minimum funkcji na kierunku poszukiwań otrzymując x(p+1). Jest to problem minimalizacji funkcji jednej zmiennej. Zakończyć proces, jeżeli została osiągnięta zbieżność lub osiągnięto maksymalną liczbę iteracji. x2 x(0) f(x(p)+td(p)) x(2) x(1) x* d(2) d(1) x1 a* a
Metoda złotego podziału Lemat: Jeżeli funkcja f(x) jest unimodalna (posiada tylko jedno minimum) w przedziale [a,b] to dla określenia podprzedziału, w którym leży punkt stacjonarny należy obliczyć wartość funkcji w dwóch punktach tego przedziału oprócz końców przedziału. f(x) f(x) a x1 x2 x b a x1 x2 x b Jeżeli dla a<x1<x2<b zachodzi f(a)>f(x1) i f(x1)<f(x2) to minimum znajduje się pomiędzy a oraz x2; jeżeli zachodzi f(x2)<f(x1) i f(x2)<f(b) to minimum znajduje się pomiędzy x1 i b. Te obserwacje stanowią podstawę zawężania przedziału, w którym zawarte jest minimum.
W metodzie złotego podziału chcemy żeby przedział był zawężany w tym samym stosunku a w każdej iteracji. Musi zatem zachodzić: Załóżmy, że minimum jest pomiędzy a i x2. Wtedy mamy:
Aproksymacja paraboliczna f(x) (xa,fa) (xc,fc) (xb,fb) x (xm,fm)
Metody podstawowe kierunków poprawy Metoda Gaussa-Seidla (bezgradientowa). Metoda największego spadku (gradientowa). Metoda Newtona (gradient i hesjan). x2 Ilustracja metody Gaussa-Seidla x1
Metoda Gaussa-Seidla (bardzo wolna zbieżność liniowa) Metoda największego spadku (zbieżność liniowa) Metoda Newtona (zbieżna kwadratowo ale kosztowna i nie zawsze stabilna)
Metoda Davidona-Fletchera-Powella (DFP) Podstawowym założeniem metody jest, że macierz S złożona z kolejnych kierunków poszukiwań [d(1),d(2),…,d(n)] diagonalizuje hesjan funkcji f w minimum.