Zakładamy a priori istnienie rozwiązania α układu równań.

Slides:



Advertisements
Podobne prezentacje
OBLICZENIA NUMERYCZNE
Advertisements

Modelowanie i symulacja
Nieliniowa metoda najmniejszych kwadratów
Metody numeryczne część 1. Rozwiązywanie układów równań liniowych.
Równanie różniczkowe zupełne i równania do niego sprowadzalne
IV Tutorial z Metod Obliczeniowych
Programowanie matematyczne
Metody poszukiwania minimów lokalnych funkcji
Metoda simpleks Simpleks jest uniwersalną metodą rozwiązywania zadań programowania liniowego. Jest to metoda iteracyjnego poprawiania wstępnego rozwiązania.
STATYSTYKA WYKŁAD 03 dr Marek Siłuszyk.
Metody rozwiązywania układów równań liniowych
Badania operacyjne. Wykład 2
Zakład Mechaniki Teoretycznej
Metody Numeryczne Wykład no 12.
Metody Numeryczne Wykład no 3.
Wykład no 11.
Problemy nieliniowe Rozwiązywanie równań nieliniowych o postaci:
Metoda węzłowa w SPICE.
Problemy nieliniowe Rozwiązywanie równań nieliniowych o postaci:
Wyrównanie metodą zawarunkowaną z niewiadomymi Wstęp
Ogólne zadanie rachunku wyrównawczego
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010Optymalizacja miary efektywności działania sztucznych sieci neuronowych Dr hab. inż. Kazimierz Duzinkiewicz,
Nieliniowa metoda najmniejszych kwadratów
Metoda simpleks opracowanie na podstawie „Metody wspomagające podejmowanie decyzji w zarządzaniu” D. Witkowska, Menadżer Łódź Simpleks jest uniwersalną.
OPORNOŚĆ HYDRAULICZNA, CHARAKTERYSTYKA PRZEPŁYWU
Sieci neuronowe jednokierunkowe wielowarstwowe
Metody matematyczne w Inżynierii Chemicznej
Metoda różnic skończonych I
Metody matematyczne w inżynierii chemicznej
Przybliżone metody rozwiązywania równań nieliniowych
Metody matematyczne w Inżynierii Chemicznej
Metody numeryczne SOWIG Wydział Inżynierii Środowiska III rok
Zadanie programowania liniowego PL dla ograniczeń mniejszościowych
II Zadanie programowania liniowego PL
Postać kanoniczna i iloczynowa równania funkcji kwadratowej.
Zadanie programowania liniowego PL dla ograniczeń mniejszościowych
MECHANIKA NIEBA WYKŁAD r.
METODY NUMERYCZNE I OPTYMALIZACJA
Modelowanie matematyczne jako podstawa obliczeń naukowo-technicznych:
Technika optymalizacji
Metody iteracyjne rozwiązywania układów równań liniowych
Modelowanie i identyfikacja 2010/2011Optymalizacja miary efektywności działania sztucznych sieci neuronowych Dr hab. inż. Kazimierz Duzinkiewicz, Katedra.
Dana jest sieć dystrybucji wody w postaci: Ø      m- węzłów,
Sterowanie – metody alokacji biegunów II
Algebra Przestrzenie liniowe.
Źródła błędów w obliczeniach numerycznych
Rozwiązywanie liniowych układów równań metodami iteracyjnymi.
Szeregi funkcyjne dr Małgorzata Pelczar.
II Zadanie programowania liniowego PL
Metody numeryczne szukanie pierwiastka metodą bisekcji
Rozwiązywanie układów równań liniowych różnymi metodami
Ekonometryczne modele nieliniowe
Metody Numeryczne Ćwiczenia 3
Tematyka zajęć LITERATURA
Wstęp do metod numerycznych
Wstęp do metod numerycznych
Metody rozwiązywania układów równań nieliniowych
Metody nieinkluzyjne: Metoda iteracji prostej.
Analiza numeryczna i symulacja systemów
Metody rozwiązywania układów równań liniowych
Wydział Elektroniki PWr AiR III r. Metody numeryczne i optymalizacja Dr inż. Ewa Szlachcic Wykład 3 Właściwe minimum lokalne: Funkcja f(x) ma w punkcie.
Wykład 6 Dr Aneta Polewko-Klim
ELEMENTY METOD NUMERYCZNYCH
Fundamentals of Data Analysis Lecture 12 Approximation, interpolation and extrapolation.
Rozwiązywanie układów równań Radosław Hołówko Konsultant: Agnieszka Pożyczka.
Modelowanie i podstawy identyfikacji
Metody optymalizacji Materiał wykładowy /2017
MATEMATYCZNE MODELOWANIE PROCESÓW BIOTECHNOLOGICZNYCH
Wykład 4 (cz. 1) Pierwsze zastosowania modelowania molekularnego: lokalna i globalna minimalizacja energii potencjalnej.
Hiperpowierzchnia energii potencjalnej cząsteczki
Zapis prezentacji:

Zakładamy a priori istnienie rozwiązania α układu równań. Przybliżone metody rozwiązywania układów równań nieliniowych – metody iteracyjne Metoda Newtona Zmodyfikowana metoda Newtona Metoda siecznych Zakładamy a priori istnienie rozwiązania α układu równań. Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic

Metody rozwiązywania układów równań nieliniowych – metoda Newtona Układ n równań nieliniowych zawierający n niewiadomych: Znane jest k-te przybliżenie wektora x Funkcje fj należy rozwinąć w szereg Taylora w otoczeniu punktu xk z dokładnością do pierwszych pochodnych. Uzyskano układ n równań liniowych. Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic

Metody rozwiązywania układów równań nieliniowych – metoda Newtona Uzyskano układ n równań liniowych. Z wektorem zmiennych postaci: Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic

Zapis macierzowy układu równań Wartości kolejnych pochodnych dotyczą : Gdzie jest wektorem niewiadomych i W(x)- macierz Jacobiego dla k=0,1,... Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic

Układ nieliniowych równań algebraicznych dla k=0,1,2, ...., oraz dla i=1,2,...,n Metoda Newtona jest zbieżna, jeżeli przybliżenie x0 jest dostatecznie bliskie rozwiązaniu układu równań. Przykład 1 Dany jest układ równań nieliniowych – znaleźć rozwiązania układu dla czterech przybliżeń początkowych:I [1.3,1.2,0.8]; II [10,20,-10];III [-10, -20, 10]; IV [1000,1000,2000] Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic

Modyfikacje metody Newtona – dla dużej liczby niewiadomych n Jednokrotne obliczenie macierzy Jacobiego dla zerowego przybliżenia rozwiązania dla k=0,1,2, ...., oraz Obliczenia iteracyjne dla k=0,1,2... Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic

Nad-kreślony układ równań nieliniowych dla mn Norma Pseudo-rozwiązaniem nad-określonego układu (1) nazywamy takie , dla którego norma (2) osiąga minimum Np.: Jeśli funkcje są różniczkowalne w sposób ciągły: metody minimalizacji gradientowe Jeśli funkcje są nieregularne i nie mają wszędzie ciągłych pochodnych: metody minimalizacji bez-gradientowe z oszczędniejszą normą wektora f(x) tzw. Norma maksimum: Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic

Metody rozwiązywania układów równań nieliniowych – metoda gradientowa – metoda najszybszego spadku NS Jeśli m=n to każde rozwiązanie układu równań nieliniowych jest zerem funkcji U(x) i na odwrót. Wektor x, dla którego U(x)=0 jest pierwiastkiem równania (1). dk- k-ty kierunek poprawy, - współczynnik kroku Współczynnik kroku  jest tak dobrany aby: jeżeli to Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic

Metoda najszybszego spadku NS jest to metoda gradientowa, która pozwala szukać minimum różniczkowalnej funkcji nieliniowej f(x). Koncepcja metody wynika z lematu, w którym wykazano, że jeśli istnieje I kierunek d w przestrzeni taki, że oraz to Szczegółowo lemat zostanie przedstawiony w ramach wykładu nr 10. Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic

Algorytm obliczeń – metoda NS Wybierz punkt startowy xo=xk. Oblicz wartość funkcji f(xk) oraz jej gradient  f(xk) (2) Zbadaj kryterium zbieżności: Jeśli tak, to koniec, jeśli nie, to przejdź do (3) Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic

(3) Wyznacz kierunek poszukiwań : (4) Wykonaj minimalizację kierunkową wybraną metodą: (5) Podstaw Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic

Do minimalizacji w kierunku można użyć kilku algorytmów takich jak np Algorytmy bez-gradientowe: złotego podziału, aproksymacji kwadratowej, Algorytmy gradientowe: ekspansji i kontrakcji geometrycznej z testem jednoskośnym, logarytmiczny złoty podział odcinka ze wstępną ekspansją i kontrakcją geometryczną, aproksymacji parabolicznej z testem jednoskośnym, bisekcji z testem dwuskośnym Goldstein’a,

Algorytm bisekcji z testem dwuskośnym Golstein’a – algorytm gradientowy Praktycznie do wyszukania punktów spełniających test dwuskośny Goldsteina stosuje się następujący algorytm bisekcji: Oblicz pochodną w kierunku oraz współczynnik kroku (2) Wyznacz (3) Jeśli to podstaw i przejdź do kroku (2), w przeciwnym razie przejdź do kroku (4) (4) Jeśli to podstaw i przejdź do kroku (2), w przeciwnym przypadku koniec. Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic

Działanie algorytmu bisekcji z testem dwuskośnym Goldstein'a dla funkcji: f(x1, x2) = (x1)2 + 2(x2)2 – 6x1 + x1x2 punkt początkowy x0 = (0, 0) kierunek d = (1, 0) współczynnik testu  = początkowa wartość współczynnika kroku R = 9 dokładność dla testu Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic

Otrzymano wartość pochodnej p: Pochodna w kierunku zatem mamy: dla x = x0 = (0, 0) Otrzymano wartość pochodnej p: Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic

Przechodzimy do kroku (3) (2) Obliczamy Przechodzimy do kroku (3) Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic

i przejdź do kroku (2). W przeciwnym wypadku przejdź do kroku (4) (3) Jeżeli to podstaw i przejdź do kroku (2). W przeciwnym wypadku przejdź do kroku (4)    sprawdzamy: -6,75 <? NIE Przechodzimy do kroku (4) Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic

i przejdź do kroku (2). W przeciwnym wypadku KONIEC (4) Jeżeli to podstaw i przejdź do kroku (2). W przeciwnym wypadku KONIEC   sprawdzamy: -6,75 >? TAK i przechodzimy do kroku (2)  DRUGA ITERACJA (...) Po trzeciej iteracji otrzymujemy wynik Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic

Działanie algorytmu najszybszego spadku dla funkcji: f(x1, x2) = 2(x1)2 + (x2)2 – 2 x1x2 punkt początkowy x0 = (2, 3) współczynnik testu  = początkowa wartość współczynnika kroku R = 1

Ponieważ pierwsza stosowana wartość współczynnika kroku Obliczamy Ponieważ pierwsza stosowana wartość współczynnika kroku R = 1 spełnia test dwuskośny Goldsteina, więc: x1 = x0 + 0 d0 = [0 1]T W drugiej iteracji mamy: Otrzymujemy: Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic

Zatem test dwuskośny ma postać -6  202 - 8  -2 Za pomocą algorytmu bisekcji (test dwuskośny Goldsteina) w trzeciej próbie znajdujemy wartość współczynnika 1 = 0,25 Stąd x = x1 + 1 d1 = [ ]T Postępując zgodnie z algorytmem otrzymujemy kolejne wartości punktów optymalizowanej funkcji. Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic

TAK OTRZYMUJEMY PUNKT MIN (0,0) Kolejno podane są punkty wyznaczone za pomocą algorytmu najszybszego spadku dla funkcji: f(x1, x2) = 2(x1)2 + (x2)2 – 2 x1x2 x0 = [2 3] x1 = [0 1] x2 = [ ] x3 = [ ] x4 = [ ] itd.... I tak kolejno, aż do momentu gdy zostanie spełniony warunek TAK OTRZYMUJEMY PUNKT MIN (0,0) Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic

Funkcja celu f(x) Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic

Kolejne iteracje metody najszybszego spadku NS x0 x1 x3 x2 x5 x4 x^ Metody numeryczne i optymalizacji Dr inż. Ewa Szlachcic