Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Algorytmy wielokryterialnej ewolucji z ograniczeniami Autorzy: Tomasz Jerzy Borek Grzegorz Wolak.

Podobne prezentacje


Prezentacja na temat: "Algorytmy wielokryterialnej ewolucji z ograniczeniami Autorzy: Tomasz Jerzy Borek Grzegorz Wolak."— Zapis prezentacji:

1 Algorytmy wielokryterialnej ewolucji z ograniczeniami Autorzy: Tomasz Jerzy Borek Grzegorz Wolak

2 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak2 O czym w ogóle mowa Część podstawowa: wprowadzenie. Część właściwa, gdzie sklasyfikujemy algorytmy i omówimy reprezentantów grup. Właściwej postaramy się poświęcić więcej czasu, jako że jest definitywnie ciekawsza.

3 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak3 Plan ramowy referatu Część I: Ogólne wprowadzenie do tematu; Część II: Algorytmy ewolucyjne – geneza i omówienie; Część III (ostatnia): Algorytmy ewolucyjne z ograniczeniami: Klasyfikacja ograniczeń Klasyfikacja algorytmów ewolucyjnych z ograniczeniami Omówienie poszczególnych grup Gdybyście chcieli więcej...

4 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak4 Część pierwsza wprowadzenia Optymalizacja Co to jest, na rozum? Kryteria – znaczenie Kryteria – ilość Pojęcia Ewolucja Co to jest, na rozum? Kryteria – znaczenie Kryteria – ilość Pojęcia Przenoszenie pojęć i podobieństwa w jednym i drugim Autorzy: ta dziwna nomenklatura znaczy tyle co Pojęcia podstawowe Autorzy: ta dziwna nomenklatura znaczy tyle co Pojęcia podstawowe

5 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak5 Część druga wprowadzenia Trochę historii + geneza Struktura + omówienie Klasyfikacja + paradygmaty Autorzy: czyli algorytmy ewolucyjne czas zacząć!

6 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak6 !!! GWÓŹDŹ PROGRAMU !!! Jeszcze więcej o ograniczeniach Zwłaszcza o nieliniowych Klasyfikacja EA z ograniczeniami Autorzy: algorytmy wielokryterialnej ewolucji z ograniczeniami zaczną się dopiero w tej części (bez obaw, zdążycie zasnąć jeżeli jesteście bardzo zmęczeni)

7 Część pierwsza, alias Wstęp Pojęcia podstawowe Optymalizacja a Ewolucja

8 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak8 Związek ewolucji z optymalizacją Optymalizacja – cykliczne ulepszanie rozwiązania. Celem ewolucji jest lepsze przystosowanie istot (osobników) do życia w zmienionych warunkach. Osobniki lepiej przystosowane (zoptymalizowane) przeżywają i mogą tworzyć nowe pokolenie. Ewolucja jest to mechanizm ulepszający (optymalizujący) osobnika.

9 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak9 Rodzaje ewolucji Ewolucję można podzielić na: Jednokryterialną. Wielokryterialną. W ewolucji jednokryterialnej zmianie (optymalizacji) podlega jedna cecha. W ewolucji wielokryterialnej jest optymalizowanych wiele cech.

10 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak10 Czynniki wpływające na ewolucję Ilość kryteriów Ograniczenia

11 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak11 Przenoszenie pojęć Cecha – kryterium Rozwiązanie – chromosom, genotyp lub gen, osobnik. Nierównorzędne! Przystosowanie – ulepszenie Pokolenie – kolejny cykl

12 Część druga, alias Rozwinięcie Algorytmy ewolucyjne Historia, schemat, paradygmaty

13 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak13 Algorytmy ewolucyjne - geneza Jest to ogólny termin łączący: Algorytmy genetyczne Programowanie genetyczne/ewolucyjne Strategie ewolucyjne Początek to lata 50-te, pierwsze prace dot. programowania ewolucyjnego (R. Frideberg). Praktyka: 1965, Bienert, Recgenberg, Schewefel, pierwsze wersje EA. Teoria do algorytmów genetycznych to przełom lat 60-tych i 70-tych (J.Holland).

14 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak14 Schemat ogólny EA void function algorytm_Ewolucyjny() { int t = 0; inicjalizacja(P(t));// tworzenie pokolenia t ewaluacja(P(t)); // oblicz wartość funkcji celu while (not warunek_Stopu)// warunek stopu { t += 1; selekcja(P(t), P(t-1)); mutacje(P(t)); krzyżowanie(P(t)); ewaluacja(P(t)); } } // koniec procedury

15 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak15 Klasyfikacja Algorytmów ewolucyjnych Algorytmy genetyczne (genetic algorithms) Strategie ewolucyjne (evolution strategies) Programowanie ewolucyjne/genetyczne (evolution/genetic programming) Inne

16 Część trzecia, alias Gwóźdź Programu Wielokryterialne algorytmy ewolucyjne z ograniczeniami Metody, metody, metody…

17 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak17 Algorytmy ewolucyjne z ograniczeniami Większość rzeczywistych problemów, które można rozwiązywać za pomocą algorytmów ewolucyjnych ma ograniczoną przestrzeń rozwiązań. Na dany problem są nałożone pewne ograniczenia, które muszą zostać uwzględnione w algorytmie

18 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak18 Wielokryterialna optymalizacja z ograniczeniami Min/Max f m (x)m = 1, 2,..., M Ograniczenia:g j (x)  0j = 1, 2,…,J h k = 0k = 1, 2,…, K x i (L)  x i  x i (U) i = 1, 2,…, n

19 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak19 Klasyfikacja ograniczeń Ograniczenia twarde – musi zostać spełnione, aby rozwiązanie było osiągalne Ograniczenia miękkie – może zostać zmienione, aby rozwiązanie było osiągalne Ograniczenia twarde są trudne do spełnienia dlatego mogą zostać przekonwertowane na miękkie (z małą startą dokładności) Istnieje jeszcze jeden podział ograniczeń: Liniowe Nieliniowe

20 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak20 Ograniczenia liniowe Problem jest prosty do rozwiązania Wiele hybrydowych metod działa tylko dla ograniczeń liniowych (przykładem jest GENOCOP-I, czy NSGA-I). Można wtedy łatwo dokonać optymalizacji, niekoniecznie używając EA.

21 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak21 Ograniczenia nieliniowe Problem określany jest jako NLP (Non-Linear Programming) Są to najczęstsze ograniczenia na jakich przychodzi testować algorytmy ewolucyjne z ograniczeniami Pułapką w optymalizacji NLP są maksima/minima lokalne Niemożliwym jest dokonać globalnej optymalizacji problemu NLP, która będzie pasowała do każdego modelu z NLP

22 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak22 Klasyfikacja EA z ograniczeniami Metody z funkcją kary Metody premiujące rozwiązania osiągalne Metody wyraźnie rozróżniające rozwiązania osiągalne od nieosiągalnych Inne metody, zwane hybrydowymi

23 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak23 Metody z funkcją kary Ogólnie mówiąc. Przykładowo mówiąc. Homairfar, Lai i Qi. Joines i Houck. Michalewicz i Attia. I dodatkowo: Kara śmierci czy pomijanie nieosiągalnego.

24 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak24 Ogólnie a na przykładzie Nakładasz karę na rozwiązania nieosiągalne Kara bazuje na: Koszcie przekształceń nieosiągalnego w osiągalne Dystansie od osiągalnej domeny f1, f2 –> funkcje do optymalizacji (tu minimalizujemy) g -> ograniczenia

25 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak25 Algorytm - ogólnie 1) Normalizacja ograniczeń. Obliczenie ich naruszenia. Ograniczenia są zazwyczaj w takiej postaci: g j (x (i) )  0 dla j = 1, 2, …, J 2) „Nakładanie kary” na rozwiązania nieosiągalne: Zazwyczaj oblicz = 3) Sumowanie kar i mnożenie sumy przez współczynnik kary R j (zależny od rzędu wielkości f j ):

26 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak26 Przykład – rozwinięcie 1 ROZWIĄZANIA x1x1 x2x2 f1f1 f2f2  10,310,890,316,10,390.000,39 20.382.730.389.820.030.310.34 30.220.560.227.090.580.000.58 40.593.630.597.850.00 50.661.410.663.650.00 60.832.510.834.230.00 Oto przykładowe rozwiązania dla problemu z poprzedniego slajdu

27 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak27 Przykład – rozwinięcie 2 Pierwszym krokiem jest normalizacja Pierwsze ograniczenie ujemne, drugie dodatnie, stąd funkcje kary, które potem dodamy do rozwiązań. Suma kar równa karze za pierwsze ograniczenie f 2 >>f 1 więc dobieramy współczynniki kary: R 1 = 2, R 2 = 20 i mamy

28 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak28 Metoda Homairfara, Lai i Qi - algorytm. 1. Dla każdego ograniczenia określ poziomy jego złamania 2. Dla każdego poziomu i dla każdego ograniczenia wyznacz wsp. kary R ij ; i ma zakres od 1 do ilości poziomów j ma zakres od 1 do ilości ograniczeń im wyższy poziom złamania ograniczenia tym wyższy współczynnik 3. Losowo wygeneruj populację 4. Oszacuj osobnika wg wzoru:

29 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak29 Metoda Homairfara, Lai i Qi - podsumowanie. Inaczej metoda statycznych kar Ilość parametrów: m ograniczeń to m parametrów dla określenia poziomów złamania ograniczenia. Zazwyczaj optymalny zbiór parametrów (dla niego algorytm zwraca optymalne lub mu bliskie rozwiązanie) istnieje, często jednak trudno go znaleźć.

30 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak30 Metoda Jones’a i Houcka Inaczej metoda dynamicznych kar Algorytm ten sam, lecz szacujesz osobniki wg wzoru: t – numer iteracji C, β,  – stałe, optymalnie C=0.5,  = β =2 Zamiast poziomów ograniczeń - (C * t)  Wartość rośnie wraz z licznikiem iteracji i procesem poszukiwania rozwiązania optymalnego Zmienne kary, mniej parametrów niż poprzednio

31 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak31 Metoda Michalewicza i Attii – algorytm. 1. Podziel ograniczenia (liniowe, nieliniowe, równości, nierówności): wynikiem podzbiory LI, NI, LE, NE. 2. Wyznacz losowy punkt startowy spełniający ograniczenia z LI i LE. 3. Temperatura startowa r=r 0. 4. Oszacuj populację wg wzoru: 5. Sprawdź czy r < r freeze 1. Tak - zatrzymaj algorytm 1. Zwróć najlepsze rozwiązanie obecnej generacji. 2. Nie, powtórz krok 4. 1. Najlepsze rozwiązanie obecnej generacji wybierz jako punkt startowy dla następnej generacji. 2. Zmniejsz temperaturę r. Temperaturę zamrażania definiuje się na początku.

32 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak32 Metoda Michalewicza i Attii – podsumowanie. Też dynamiczne kary, GENOCOP II Rozróżnia liniowe i nieliniowe ograniczenia Zarządza osiągalnością ograniczeń liniowych (zbiór zamkniętych ograniczeń). Rozwiązania dzieli na osiągalne liniowe, osiągalne nieliniowe i nieosiągalne … Nacisk na rozwiązania nieosiągalne osiąga przez zmniejszanie temperatury do temperatury zamrażania. Startuje od pojedynczego punktu (temperatura początkowa), nie od zbioru.

33 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak33 Kara śmierci czy pomijanie nieosiągalnego? Nieosiągalne nieważne. Nieosiągalne = kara śmierci. Łatwe w implementacji, nierzeczywiste. Częste w: programowaniu ewolucyjnym dla optymalizacji numerycznej, symulowanym wyżarzaniu, strategiach ewolucyjnych. Idąc dalej: pomińmy ograniczenia!

34 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak34 Metody premiujące rozwiązania osiągalne 1 Operatory genetyczne działają w F. Paradygmaty wykorzystane najczęściej to programowanie ew./gen. i strategie. Grupa I: algorytmy banalne Ograniczenia liniowe TYLKO => słabe Start z osiągalnego punktu lub populacji Układy Gaussa do eliminowania zmiennych

35 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak35 Metody premiujące rozwiązania osiągalne 2 Grupa II: algorytmy eksperckie Działają na „granicy osiągalności” Nie ma zastrzeżeń do punktu startowego lub ograniczeń Specyficzne operatory dodatkowe: Krzyżowanie sferyczne Krzyżowanie geometryczne itp. Operatory zaawansowane matematycznie

36 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak36 Metody wyraźnie rozróżniające rozwiązania osiągalne od nieosiągalnych Metoda Jimenez-Verdegay-Gomez-Skarmety (trzy osoby cztery nazwiska) Niszowanie Niszowy algorytm genetyczny Metoda „turnieju ograniczeń” Selekcja turniejowa Definicja ograniczonej dominacji Michalewicz i Nazhiyath – GENOCOP. Genocop to rodzina systemów, tu postaramy się podsumować informacje zebrane na ten temat.

37 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak37 Metoda Jimenez Verdegay Gomez - Skarmety – wstęp i niszowanie Ostrożnie z klasyfikacją osiągalności Systematyczne podejście, niszowanie NISZOWANIE – niching Osobniki w danej populacji dzielisz na nisze (grupy) o podobnych cechach Umożliwia łatwe zróżnicowanie populacji następnej Różne rodzaje niszowania – należy dobrać najlepsze

38 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak38 Metoda Jimenez Verdegay Gomez - Skarmety – selekcja 1 Wykorzystywana jest metoda selekcji turniejowej (opisana osobno) dwu osobników: trzy przypadki Rozwiązania z dwu domen – mieszany Wybieramy rozwiązanie osiągalne Dwa rozwiązania nieosiągalne Dalej opis szczegółowy Dwa rozwiązania osiągalne Dalej opis szczegółowy

39 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak39 JVG - S – selekcja 2 – gdy mamy dwa rozwiązania (nie)osiągalne Algorytm Horna z ’94. Niched-Pareto GA Analogicznie stosowany dla rozwiązań nie- i osiągalnych. 1. Wybieramy losowy zbiór rozwiązań z bieżącej populacji. 2. Wybieramy dwa rozwiązania do selekcji turniejowej i porównujemy je ze zbiorem porównawczym (utworzonym w 1). 3. Sprawdzenie dominacji r1 i r2: 1. r1 nie jest zdominowane w zbiorze porównawczym a r2 tak (przez co najmniej jedno rozwiązanie) wygrywa r1 (to niezdominowane) 2. r1 i r2 są takie same w kontekście dominacji, sprawdzamy sąsiedztwo na okoliczność licznika nisz (mniejszy znaczy lepszy – mniej zatłoczony).

40 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak40 Metoda Jimenez Verdegay Gomez - Skarmety – zalety i wady Wymaga obliczeń licznika nisz (nich count) dla każdego rozwiązania. Po co zatem podpopulacje? Dobra złożoność obliczeniowa: O(n 2 ). Selekcja metodą turniejową - lepsza zbieżność niż selekcja proporcjonalna (koło ruletki) Zbiór porównawczy to może być populacja podstawowa, niekoniecznie trzeba go tworzyć. Zwiększa różnorodność wśród rozwiązań nieosiągalnych – zachowywanie tej różnorodności wpływa na poszukiwanie rozwiązania.

41 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak41 Metoda „turnieju ograniczeń” – wstęp i selekcja jednokryterialna Selekcja turniejowa (patrz tournament w sporcie) na dwu osobnikach. Przerobiona z jednokryterialnej, gdzie: Przypadek mieszany, osiągalne lepsze. Przypadek nieosiągalny, lepsze mniej nieosiągalne (utrzymujące więcej ograniczeń). Przypadek osiągalny, patrzysz po wartości funkcji celu.

42 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak42 Metoda „turnieju ograniczeń” – ilustracja dla jednego kryterium

43 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak43 Metoda „turnieju ograniczeń” – selekcja wielokryterialna Przypadek mieszany i nieosiągalny – niezależne od rodzaju optymalizacji Przypadek osiągalny – wiele kryteriów. Rozwiązania w osobnych frontach niezdominowanych, który lepszy Rozwiązania w tym samym froncie, Ustalamy stopień różnorodności Ustalamy zatłoczenie przy rozwiązaniach Dobrze użyć definicji ograniczenia dominacji

44 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak44 Metoda „turnieju ograniczeń” – ilustracja dla wielu kryteriów

45 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak45 Metoda turnieju ograniczeń – definicja ograniczenia dominacji Constraint-domination principle. Rozwiązanie A ogranicza dominację rozwiązania B, gdy zachodzi któreś z poniższych: A jest osiągalne, podczas gdy B nie. A i B nieosiągalne, B bardziej łamie ograniczenia. A i B osiągalne, B jest zdominowane przez A. Nic niezwykłego, można stosować w wielu MOEA, są różne.

46 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak46 Metoda turnieju ograniczeń – selekcja i niszowanie Z rozwiązań A i B wybieramy A, gdy: A należy do lepszego zbioru rozwiązań nieograniczonej dominacji. A i B należą do tego samego zbioru rozwiązań nieograniczonej dominacji lecz A leży w mniej zatłoczonym regionie tego zbioru wg miary niched-distance. Niched-distance miara gęstości rozwiązań, obliczana przez metryki: Licznika nisz (niche count) Licznika głów (head count) Odległości zatłoczenia (crowding distance) Inne

47 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak47 Metoda turnieju ograniczeń – zalety i wady Nie wymaga dodatkowych obliczeń. Definicja ograniczonej dominacji – nieosiągalne zdominowane przez osiągalne. Intuicyjny algorytm (sport ). Więcej niż jedna definicja, różnią się między sobą. Podana tutaj definicja. Definicja Drechslera (1990). Definicja Fonseci i Fleminga (1988).

48 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak48 Metoda Michalewicza i Nazhyiatha Reperowanie rozwiązań nieosiągalnych. Korzysta z wersji I i II. Dwie osobne populacje: Ps search points: Punkty ze zbioru F Nie łamią ograniczeń liniowych Osiągalność (w tym zakresie) – specjalne operatory. Pr reference points: Też punkty ze zbioru F W pełni osiągalne. Ewaluacja punktów referencji – zwrot funkcji celu. Ewaluacja punktów poszukiwań – dopiero po ich reperacji. GENOCOP II – patrz metoda Michalewicza i Attii, metody z funkcją kary. GENOCOP I – metoda działająca tylko dla ograniczeń liniowych, podejście hybrydowe najbardziej zbliżone do tego z funkcją kary.

49 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak49 Metody hybrydowe Metoda Ray-Tai-Seowa. Metryka selekcji „common constraint satisfaction” Metoda Schoenauera i Xanthakisa Metoda Powella i Skolmicka Inne metody hybrydowe

50 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak50 Metoda Ray Tai Seowa – algorytmu krok pierwszy  Trójstopniowe sprawdzenie rozwiązań: 1. Pod kątem funkcji celu (funkcje f, przyjmijmy, że jest ich M) – wynik w wektorze R obj (objective Ranking) 2. Pod kątem złamania ograniczeń (funkcje h, przyjmijmy, że jest ich J) - wynik w wektorze R con (constrain Ranking), ranga pierwsza to rozwiązanie w pełni osiągalne, rozwiązania łamiące jedno ograniczenie należą do jednego niezdominowanego frontu 3. Pod kątem złamania ograniczeń ORAZ funkcji celu - wynik w wektorze R com (combined Ranking) Kryteria porównywane indywidualnie! Nie ma potrzeby na karne parametry ani dla funkcji celu ani dla ograniczeń

51 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak51 Metoda Ray Tai Seowa – algorytmu krok drugi  Mając wektory R wypełnione, stosujemy algorytm utrzymania ograniczeń 1.Z R com wybieramy rozwiązania osiągalne o randze 1 (patrz R con ). 2.Jeśli to nie wypełni populacji, przejdź do 3. 3.Wybierz osobnika A z R obj, możliwie niskiego rangą. Wybierz osobniki B i C z R con, sparuj dwójkę: B i C są osiągalni, wybierz tego, który ma lepszą rangę w R obj, jeśli rangi te same, użyj licznika głów i wybierz to z mniej zatłoczonego regionu B i C są nieosiągalni, wybierz tego, który ma lepszą rangę w R con, jeśli rangi te same, użyj metryki common-constraint- satisfactionPrzypadek mieszany – wybieramy osiągalnego osobnika 4.Mając sparowaną dwójkę (A i B albo A i C) tworzysz potomka, następnie całą trójkę umieszczasz w populacji.

52 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak52 RTS: metryka SELEKCJI common constrain satisfaction Dla każdego rozwiązania (A, B, C) określamy zbiór ograniczeń spełnionych (S A, S B, S C ). Obliczamy liczność zbiorów będących iloczynem par S A z pozostałymi. Większa liczność oznacza lepsze rozwiązania, para spełnia więcej ograniczeń. Możemy sparować dwa rozwiązania z różnych regionów, mamy wysoką różnorodność. Jeżeli liczność ta sama – wybór losowy, jak przy metodzie selekcji turniejowej.

53 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak53 Metoda Schonauera i Xanthakisa - wstęp  Ustawiamy ograniczenia w pewnej kolejności – zależnej od naszego kaprysu.  Metoda zajmuje się jednym ograniczeniem na raz.  Kolejność ograniczeń ma znaczenie, ale nie jest dokładnie zbadane jakie.  Wymaga dwóch parametrów wejściowych:  Progu ograniczeń , podanego w procentach.  Kolejności ograniczeń (ustawienia ich) stąd pobierany jest licznik tychże.  Metoda pomija rozwiązania nieosiągalne.

54 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak54 Metoda Powella i Skolmicka  Niemalże metoda z funkcją kary.  Szacowanie każdego osobnika wzorem:  r – stała,  t – licznik iteracji.  Czynnik to dodatkowy komponent:  Zależy od iteracji  Ma wpływ na nieosiągalność rozwiązania  Dodatkowa heurystyka dla stwierdzenia osiągalności: Rozwiązanie nieosiągalne zawsze gorsze od osiągalnego (funkcja eval ma lepszą wartość dla osiągalnego).

55 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak55 Metoda Schonauera i Xanthakisa – algorytm 1. Rozpocznij od losowo wygenerowanej populacji zawierającej zarówno rozwiązania osiągalne jak i nieosiągalne. 2. j = 0 ( gdzie j jest licznikiem ograniczeń). 3. Obliczaj populację wzorem: dopóki nie zostanie osiągnięty dany próg  wszystkich rozwiązań w populacji dla konkretnego ograniczenia. 1. j = j + 1. 2. Bieżąca populacja jest wyjściowa dla następnej fazy ewolucji. Podczas tego etapu rozwiązania, które nie spełniają przynajmniej jednego z poprzednich ograniczeń, tj. wszystkie od 1 do (j-1), są usuwane z populacji. Kryterium stopu jest takie same jak w etapie 3. 3. Jeśli j < m (m – ilość ograniczeń) powtórz ostatnie dwa kroki, w przeciwnym wypadku ( j = m) zoptymalizuj funkcje celu, usuń rozwiązania nieosiągalne.

56 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak56 Inne metody  Z wektorem funkcji celu i kar:  Tworzą wektor, którego elementami są funkcje celu i kar  Minimalizują każdy element wektora (wielokryterialna optymalizacja)  Metody z koewolucyjnym modelem  Dwie populacje, rozwiązań i ograniczeń mają współżyć  Lepsze rozwiązanie spełnia więcej ograniczeń  Lepsze ograniczenie jest naruszane przez więcej rozwiązań  Mnogość innych metod, najpopularniejsza grupa.

57 Gdybyście chcieli więcej… Część czwarta trzyczęściowego referatu czyli podsumowanie i dodatki

58 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak58 Podsumowanie – fakty podstawowe 1 Ewolucja nieodwołalnie związana jest z optymalizacją (min lub max funkcji). Paradygmat? Podejście? Ważniejszy jest problem. Podejście i paradygmat powinny być dobrane do problemu, nigdy na odwrót. Problem NLP nie ma generalnego algorytmu – na razie…

59 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak59 Podsumowanie – fakty podstawowe 2 Ułatwiaj sobie życie: pominąć rozwiązania nieosiągalne poruszać się tylko wśród ograniczeń liniowych przekonwertować przestrzeń rozwiązań w nieograniczoną ograniczenia twarde zmienić na miękkie (= zamiast ><). Konkretne podejście i paradygmat, to jedno, implementacja to co innego. Cykliczna adaptacja rzadko kiedy osiąga dobre wyniki w pierwszym przebiegu. Odpowiednio dobierz warunek stopu.

60 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak60 Podsumowanie – algorytmy 1 Funkcja kary. Dodajemy do każdej funkcji celu złamanie ograniczenia w rozwiązaniu nieosiągalnym, a później optymalizujemy wartości zwracana przez tak „skarcone” funkcje. Rozwiązania z nieosiągalnych zdążają do osiągalnych, czyli zbliżają się do frontu Pareto-optymalnego. Specyficznym przypadkiem jest tu rozwiązanie z tzw. „karą śmierci”. Podejście drugie zostało pominięte, jest ono dość skrajne, jedna grupa algorytmów jest wręcz banalna, podczas gdy dryga – niezwykle zaawansowana. Chodzi o podejście premiujące rozwiązania osiągalne.

61 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak61 Podsumowanie – algorytmy 2 Podejście trzecie – „turniej ograniczeń”, oraz metoda Skarmety i jego studentów dokładna ocena rozwiązań nieosiągalnych. porównanie dokonuje się pomiędzy dwoma rozwiązaniami z tej samej kategorii (nie- lub osiągalne), używając specjalnej strategii niszowania („niching”). korzysta się z wszelkich informacji jakie możemy wydobyć z rozróżnienia rozwiązań pomiędzy osiągalnymi a nieosiągalnymi. Constrain-domination principle – zasada ograniczenia dominacji. Można ją wykorzystać w wielu MOEA, np. w NSGA-II. Na koniec metody hybrydowe - Ray-Tai-Seow’a, w której dla stworzenia nowej populacji trzykrotnie sortujemy, poruszamy się po rankingach. Dość podobne do metod bazujących na funkcji kary metody Powella i Skolmicka - dodatkowe rozróżnianie rozwiązań osiągalnych i nieosiągalnych (premiując w ewaluacji osiągalne) Schoenauera i Xanthakisa - szeregowanie ograniczeń i zajmowanie się jednym ograniczeniem naraz.

62 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak62 Bibliografia [1]http://www.coe.uncc.edu/~zbyszek/ - strona Zbigniewa Michalewicza.http://www.coe.uncc.edu/~zbyszek/ [2]Strony www uczelniane: {wstaw} [3] Elitist multi-objective EA, chapter „Multi-Objective Evolutionary Optimization”.

63 27 listopada 2003 Autorzy: Tomasz Jerzy Borek, Grzegorz Wolak63 Leksykon  Feasibility, feasible solution.  Niching, niching strategy.  Niche count, nich count metric.  Objective function, fitness function.  Non-dominated (undominated, non- dominated) solution.  Diversity, maintain solution’s diversity.  Constrain-domination, constrain-domination principle.


Pobierz ppt "Algorytmy wielokryterialnej ewolucji z ograniczeniami Autorzy: Tomasz Jerzy Borek Grzegorz Wolak."

Podobne prezentacje


Reklamy Google