Algorytmy immunologiczne

Slides:



Advertisements
Podobne prezentacje
ESTYMACJA PRZEDZIAŁOWA
Advertisements

Metody losowania próby
Statystyka Wojciech Jawień
Metody badania stabilności Lapunowa
Instrukcje - wprowadzenie
Model Konkurujących Gatunków
„Wielokryterialna optymalizacja pracy systemu wytwarzania o strukturze przepływowej – algorytm memetyczny” Przygotował: Dominik Żelazny, IIAR.
HERD BEHAVIOR AND AGGREGATE FLUCTUATIONS IN FINANCIAL MARKETS Rama Cont & Jean-Philipe Bouchaud. Macroeconomic Dynamics, 4, 2000, Cambridge University.
DYSKRETYZACJA SYGNAŁU
Zmienne losowe i ich rozkłady
Wprowadzenie do optymalizacji wielokryterialnej.
Zmienne losowe i ich rozkłady
Metody rozwiązywania układów równań liniowych
Zadanie z dekompozycji
Badania operacyjne. Wykład 1
Badania operacyjne. Wykład 2
Wykład no 11.
Algorytmy genetyczne Motto:
Zmienność organizmów i jej przyczyny
Materiały do zajęć z przedmiotu: Narzędzia i języki programowania Programowanie w języku PASCAL Część 7: Procedury i funkcje © Jan Kaczmarek.
Statystyka w doświadczalnictwie
ANALITYCZNE MODELE SYSTEMÓW KOLEJKOWYCH
Nieelitystyczne algorytmy ewolucyjnej optymalizacji wielokryterialnej
Wykład 3 Sparametryzowane rodziny funkcji
Analiza korelacji.
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010Optymalizacja miary efektywności działania sztucznych sieci neuronowych Dr hab. inż. Kazimierz Duzinkiewicz,
Wykład 6 Standardowy błąd średniej a odchylenie standardowe z próby
Wykład 4 Przedziały ufności
Metody Symulacyjne w Telekomunikacji (MEST) Wykład 6/7: Analiza statystyczna wyników symulacyjnych  Dr inż. Halina Tarasiuk
Algorytmy genetyczne.
Algorytmy genetyczne.
Hipoteza cegiełek, k-ramienny bandyta, minimalny problem zwodniczy
Konstrukcja, estymacja parametrów
Metody Lapunowa badania stabilności
Elementy Rachunku Prawdopodobieństwa i Statystyki
Zadanie programowania liniowego PL dla ograniczeń mniejszościowych
Elementy Rachunku Prawdopodobieństwa i Statystyki
Zadanie programowania liniowego PL dla ograniczeń mniejszościowych
Zakładamy a priori istnienie rozwiązania α układu równań.
Hipotezy statystyczne
Modelowanie i identyfikacja 2010/2011Optymalizacja miary efektywności działania sztucznych sieci neuronowych Dr hab. inż. Kazimierz Duzinkiewicz, Katedra.
Model I/O bazujący na HSWN Problem uczenia sieci HSWN
Elementy Rachunku Prawdopodobieństwa i Statystyki
ZWIĄZKI MIĘDZY KLASAMI KLASY ABSTRAKCYJNE OGRANICZENIA INTERFEJSY SZABLONY safa Michał Telus.
MS Excel - wspomaganie decyzji
Drgania punktu materialnego
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
VI EKSPLORACJA DANYCH Zadania eksploracji danych: klasyfikacja
VII EKSPLORACJA DANYCH
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
Algorytmika.
Seminarium licencjackie Beata Kapuścińska
Testowanie hipotez statystycznych
Wyszukiwanie maksimum funkcji za pomocą mrówki Pachycondyla Apicalis.
Wnioskowanie statystyczne
Metody matematyczne w inżynierii chemicznej
Algorytmy Genetyczne Anna Tomkowska Politechnika Koszalińska
Metody nieinkluzyjne: Metoda iteracji prostej.
Warstwowe sieci jednokierunkowe – perceptrony wielowarstwowe
SZTUCZNA INTELIGENCJA
Weryfikacja hipotez statystycznych dr hab. Mieczysław Kowerski
SZTUCZNA INTELIGENCJA
Treść dzisiejszego wykładu l Metoda kar. l Podsumowanie przekształcania zadań programowania liniowego do postaci tabelarycznej. l Specjalne przypadki –sprzeczność,
Przeprowadzenie badań niewyczerpujących, (częściowych – prowadzonych na podstawie próby losowej), nie daje podstaw do formułowania stanowczych stwierdzeń.
Rozkłady statystyk z próby dr Marta Marszałek Zakład Statystyki Stosowanej Instytut Statystyki i Demografii Kolegium.
Struktury i algorytmy wspomagania decyzji
Rozkład z próby Jacek Szanduła.
Statystyka matematyczna
Co do tej pory robiliśmy:
Własności asymptotyczne ciągów zmiennych losowych
Zapis prezentacji:

Algorytmy immunologiczne Dr inż. Michał Bereta p. 144 / 10, Instytut Informatyki mbereta@pk.edu.pl beretam@torus.uck.pk.edu.pl www.michalbereta.pl

Zapobieganie przedwczesnej zbieżności Przedwczesna zbieżność ma miejsce, kiedy algorytm ewolucyjny traci zdolność przeszukiwania przestrzeni rozwiązań przed osiągnięciem optimum globalnego. Nie można mu zapobiec całkowicie, gdyż wynika on z nacisku selektywnego

Zapobieganie przedwczesnej zbieżności Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej Uwzględniania czasu życia osobników Deformacje funkcji przystosowania Uzależnienie nacisku selektywnego nie tylko od funkcji przystosowania lecz również od jego genotypu Metody generacji populacji początkowej Związek odporności AE od liczności populacji

Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej Zakładamy, że istnieje algorytm przeszukiwania lokalnego, który każdemu chromosomowi znajdującemu się w obszarze przyciągania danego optimum lokalnego przyporządkowuje to optimum lokalne. Przykład: Algorytm opt-2 w problemie komiwojażera uruchamiany dla każdego chromosomu.

Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej Korzyści: AE szybko lokalizuje obiecujące obszary w przestrzeni poszukiwań, jednak znalezienie dokładnej wartości optimum (dostrajanie) jest żmudnym i długotrwałym procesem.

Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej Sposoby łączenie AE i metod lokalnych Przeszukiwanie lokalne jako dodatkowy operator genetyczny Przeszukiwanie lokalne jako jeden z elementów odwzorowania genotypu w fenotyp

Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej Przeszukiwanie lokalne jako dodatkowy operator genetyczny Osobnik X jest zastępowany przez osobnika Y uzyskanego w wyniku optymalizacji lokalnej Można wykonać jedynie kilka kroków optymalizacji lokalnej Może to prowadzić do przyspieszenia ewolucji Przykład: Korzystanie z gradientu funkcji

Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej Wada Wykorzystanie optymalizacji lokalnej jest źródłem dodatkowego nacisku selektywnego, które może wprowadzić tendencję do preferowania maksimów lokalnych. Należy dbać wtedy o zachowanie różnorodności osobników w populacji.

Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej Przeszukiwanie lokalne jako jeden z elementów odwzorowania genotypu w fenotyp Wykorzystywane podczas obliczania funkcji przystosowania osobnika Oryginalny chromosom X (jego fenotyp) stanowi punkt startowy dla metody lokalnej. Uzyskiwany jest osobnik Y oraz jego ocena. Dysponujemy dwoma osobnikami i dwiema wartościami funkcji oceny.

Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej Dysponujemy dwoma osobnikami i dwiema wartościami funkcji oceny. Można je wykorzystać na kilka sposobów. Wartości Y oraz F(Y) są zapamiętywane, lecz nie są wprowadzane do populacji bazowej (mogą być wykorzystane podczas oceny osobników lub w kryterium zatrzymania)

Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej Dysponujemy dwoma osobnikami i dwiema wartościami funkcji oceny. Można je wykorzystać na kilka sposobów. Wartości Y oraz F(Y) są zapamiętywane, lecz nie są wprowadzane do populacji bazowej (mogą być wykorzystane podczas oceny osobników lub w kryterium zatrzymania) Wartość F(Y) jest traktowana jako wartość przystosowania osobnika X (efekt Baldwina)

Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej Dysponujemy dwoma osobnikami i dwiema wartościami funkcji oceny. Można je wykorzystać na kilka sposobów. Wartości Y oraz F(Y) są zapamiętywane, lecz nie są wprowadzane do populacji bazowej (mogą być wykorzystane podczas oceny osobników lub w kryterium zatrzymania) Wartość F(Y) jest traktowana jako wartość przystosowania osobnika X (efekt Baldwina) Osobnik Y zastępuje osobnika X, wykorzystywana jest funkcja oceny F(Y) (ewolucja lamarkowska)

Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej Baldwin (amerykański ewolucjonista) doszedł do wniosku, że genotyp osobnika określa jego predyspozycje, które w wyniku doświadczeń, oddziaływań środowiska uczenia się prowadzą do modyfikacji fenotypu i zwiększania funkcji przystosowania. Przyczyną występowania wspólnych cech nie jest dziedziczenie cech nabytych lecz jedynie predyspozycji.

Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej Efekt Baldwina Jest to przypisanie osobnikowi wartości funkcji przystosowania , która jest wynikiem działania metody optymalizacji lokalnej, modelującej proces adaptacji fenotypowych cech osobnika do warunków środowiska Metoda lokalna działa na fenotypie Z punktu widzenia osobników funkcja przystosowania przybiera postać wielu płaskowyżów, z których każdy pokrywa się z obszarem przyciągania maksimum (minimum) lokalnego

Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej Efekt Baldwina

Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej Lamarkizm Hipoteza rozwoju gatunków polegająca na dziedziczeniu cech nabytych w trakcie życia osobniczego. Współczesny ewolucjonizm odrzuca ten pogląd z powodu braku dowodów na istnienie mechanizmów modyfikacji genotypów na podstawie adaptacji całego organizmu Można jednak wykorzystać tę ideę do tworzenia AE

Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej Ewolucja lamarkowska W AE polega na tym, że znaleziony w wyniku optymalizacji lokalnej nowy osobnik Y zastępuje osobnika oryginalnego X. W wyniku tego cała populacja jest ściągana do optimów lokalnych i następuje zmniejszenie różnorodności populacji – algorytm ma bardzo eksploatacyjny charakter.

Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej Ewolucja lamarkowska Zastępowanie powoduje niebezpieczeństwo zaniku różnorodności populacji

Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej Ewolucja lamarkowska Zastępowanie powoduje niebezpieczeństwo zaniku różnorodności populacji Takie same lub bardzo podobne osobniki.

Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej Ewolucja lamarkowska - wady Mało odporna na pułapki ewolucyjne – potrzebne makromutacje by uciec z minimów lokalnych Mechanizm ten może utrudniać powstawanie osobników tzw. „ogniw pośrednich” – zazwyczaj gorszych niż chromosomy bliskie lokalnych optimów. Wymaga dodatkowych mechanizmów zwiększających różnorodność populacji

Uwzględniania czasu życia osobników Sukcesja elitarna gwarantuje przeżycie najlepszego osobnika Zaleta – szybsza zbieżność algorytmu Wada – mała odporność na pułapki ewolucyjne oraz zaburzenia procesu samoczynnej adaptacji (np. parametrów mutacji)

Uwzględniania czasu życia osobników Możliwe rozwiązanie Wprowadzenie maksymalnego czasu życia osobnika Ze starej populacji bazowej usuń wszystkie osobniki, których czas życia przekroczył limit Wyłoń elitę z pozostałych osobników Taki schemat wprowadzono w strategiach ewolucyjnych (μ, κ, λ) μ – rozmiar populacji bazowej κ – maksymalny czas życia λ – rozmiar populacji potomnej Rozmiar populacji jest stały.

Uwzględniania czasu życia osobników Możliwe rozwiązanie 2 Uzależnić czas życia osobnika od wartości jego przystosowania oraz przystosowania innych osobników w populacji w poprzednich k pokoleniach Zmienny rozmiar populacji Należy określić postać funkcji fl(X) przydzielającej długość życia osobnikom w momencie ich powstawania Reprodukcja zachodzi z jednakowym prawdopodobieństwem dla każdego Im lepszy osobnik tym więcej potomstwa wyda, gdyż dłużej żyje

Uwzględniania czasu życia osobników Funkcja liniowa lmax – maksymalny czas życia lmin – mininalny czas życia lav = (lmin + lmax)/2 – średni czas życia Fmin, Fmax, Fav – minimalna, maksymalna i średnia wartość funkcji przystosowania w pewnym oknie czasowym

Uwzględniania czasu życia osobników Funkcja proporcjonalna lmax – maksymalny czas życia lmin – mininalny czas życia lav = (lmin + lmax)/2 – średni czas życia Fmin, Fmax, Fav – minimalna, maksymalna i średnia wartość funkcji przystosowania w pewnym oknie czasowym

Uwzględniania czasu życia osobników Funkcja biliniowa lmax – maksymalny czas życia lmin – mininalny czas życia lav = (lmin + lmax)/2 – średni czas życia Fmin, Fmax, Fav – minimalna, maksymalna i średnia wartość funkcji przystosowania w pewnym oknie czasowym

Uwzględniania czasu życia osobników Liczba nowych potomków w każdej iteracji Stała wartość λ – bardziej stabilny algorytm – skończona maksymalny rozmiar populacji λ*(lmax+1) Stała proporcja λ/μ – rozmiar populacji może rosnąć w nieskończoność

Uwzględniania czasu życia osobników Eksperymenty pokazują, że właściwości tego algorytmu w niewielkim stopniu zależą od liczności początkowej populacji bazowej. Oznacza to, że można uniknąć kłopotliwego dobierania optymalnej liczności populacji bazowej.

Optymalizacja wielomodalna Funkcja przystosowania nie zawsze uwzględnia wszystkie elementy mające wpływ na jakość rozwiązania Wynikać to może z pewnych niemierzalnych cech (np. estetyka rozwiązania) bądź koniecznych uproszczeń zastosowanych w modelu Oznacza to, że w zbiorze rozwiązań globalnych zadania mogą występować lepsze i gorsze Może się okazać, że ostatecznie wybrane zostanie jedno z rozwiązań lokalnie optymalnych

Optymalizacja wielomodalna Mając to na uwadze, czasami warto prowadzić poszukiwania wielu rozwiązań optymalnych oraz suboptymalnych Optymalizacja wielomodalna ma na celu znalezienie jak największej liczby jak najlepszych, różnych maksimów funkcji przystosowania.

Optymalizacja wielomodalna Podstawowym wymogiem w ewolucyjnej optymalizacji wielomodalnej jest utrzymywanie różnorodności populacji Przeszkodą w osiągnięciu tego celu jest globalny zasięg działania selekcji W czasie selekcji konkurują ze sobą wszystkie osobniki, w wyniku czego pod koniec ewolucji w populacji dominują potomkowie najlepszego z nich

Optymalizacja wielomodalna Rozwiązanie problemu Dodanie czynnika losowego, niezależnego od stanu populacji Zmniejszenie zasięgu selekcji – ograniczenie konkurencji do osobników podobnych do siebie w przestrzeni genotypów. Mowa jest wtedy o kształtowaniu się nisz

Optymalizacja wielomodalna Dodanie czynnika losowego, niezależnego od stanu populacji Wprowadzanie osobników losowych (tzw. technika losowych imigrantów) Część populacji potomnej powstaje w wyniku operacji genetycznych na aktualnej populacji, część jest losowo wygenerowanymi nowymi osobnikami Ułatwia uniknięcia optimów lokalnych ale prowadzi do wolniejszej zbieżności Można to traktować jako operator genetyczny podobny do mutacji

Optymalizacja wielomodalna Dodanie czynnika losowego, niezależnego od stanu populacji Okresowa odnowa algorytmu (algorytm ewolucyjny z odnową lub algorytm z destrukcyjnym restartem) Polega na wykonaniu ciągu powiązanych ze sobą AE Pierwszy algorytm zaczyna od całkowicie losowej populacji początkowej Kolejne uruchomienia są inicjowane na podstawie rozwiązań otrzymanych z poprzedniego uruchomienia algorytmu poprzez wykorzystanie mutacji o dużym zasięgu

Optymalizacja wielomodalna Dodanie czynnika losowego, niezależnego od stanu populacji Losowe zaburzenia funkcji przystosowania Polega na dodaniu szumu do funkcji przystosowania, tak że jej wartość staje się zmienną losową Najczęściej wykorzystywany jest rozkład normalny o zerowej wartości średniej i wariancji stałej bądź zmniejszanej wraz z kolejnymi generacjami Metoda dobrze radzi sobie z „płytkimi” pułapkami ewolucyjnymi

Optymalizacja wielomodalna Wyłanianie nisz Wyróżnianie podpopulacji na podstawie odległości genotypów, podział jest odnawiany co jakiś czas Koewolucja – równoległa ewolucja wielu autonomicznych populacji z częściową wymianą materiału genetycznego Lokalna deformacja funkcji przystosowania

Osłabienie konkurencyjności w ramach selekcji Metoda podziału przystosowania (ang. fitness sharing) Polega na obniżeniu wartości funkcji przystosowania osobnika w stopniu proporcjonalnym do liczby osobników w jego otoczeniu Wymagane jest określenie postaci funkcji podziału fs Na nową wartość oceny wpływa ocena wszystkich osobników w populacji

Fitness sharing Zmodyfikowana funkcja przystosowania Gdzie |X-Y| jest metryką w przestrzeni genotypów Funkcja fs(d) powinna spełniać warunki:

Fitness sharing Oddziaływanie funkcji podziału na funkcję przystosowania polega na obniżaniu jej w miejscach, w których gęstość liczby osobników jest duża.

Fitness sharing Populację osobników Y, dla których fs(|X-Y|)>0 nazywa się niszą. Algorytm wykorzystujący tę technikę nazywamy algorytmem niszowym (ang. niching evolutionary algorithm)

Fitness sharing Przykład dla funkcji gdzie σshare - rozmiar otoczenia wokół danego rozwiązania α – parametr skalujący

Fitness sharing

Fitness sharing σshare = 3.0 α = 0.5

Fitness sharing Może się zdarzyć, że chromosomy znajdujące się blisko globalnego maksimum będą miały tak obniżoną wartość funkcji przystosowania, że będą miały problemy z przekazaniem swoich genów. Może wtedy dojść do „migotania” populacji czyli oscylacji między obszarami przyciągania różnych maksimów.

Fitness sharing Migotania można się pozbyć ustalając mianownik związany z podziałem jako różny dla każdego osobnika. Z dwóch osobników identycznych większą ocenę otrzyma osobnik, który jako pierwszy był brany pod uwagę.

Metody grupowania w AE AE można zmodyfikować w taki sposób, by przed wykonaniem reprodukcji populację bazową Pt podzielić na v rozłącznych populacji Ptc c= 1..v Dla każdej z grup wykonuje się osobno selekcję i operacje genetyczne. Podpopulacje mogą się zmieniać z generacji na generację.

Metody grupowania w AE Grupowanie polega na wyodrębnieniu takich grup, by osobnik w obrębię każdej grupy był maksymalnie do siebie podobne i maksymalnie się różniły od osobników w innych grupach. Algorytmy C-means (k-średnich) Fuzzy C-means itp.

Preselekcja Metoda podobna do metod bazujących na grupowaniu Polega na modyfikowaniu sukcesji, podczas której uwzględnia się, oprócz wartości funkcji przystosowania, również relację między genotypami osobników.

Preselekcja Schemat: Po utworzeniu nowego osobnika zwyczajnym sposobem (selekcja + operatory genetyczne) z populacji bazowej usuwany jest jeden osobnik Po zakończenie cyklu reprodukcji i operatorów genetycznych populacja potomna i resztki populacji bazowej tworzą nową populację bazową

Preselekcja Dwa sposoby wyboru osobników do wymiany Jeden z osobników rodzicielskich (np. o najmniejszej wartości funkcji przystosowania jeśli jest gorszy od potomka) Osobnik z populacji, który jest najbardziej podobny do potomka (ścisk) (niezależnie od jego oceny) Schemat ze ściskiem: w celu przyspieszenia obliczeń można wybrać pewien podzbiór osobników populacji bazowej (o liczności k – współczynnik ścisku), spośród których wybrany zostanie osobnik do odrzucenia.

Deformacje funkcji przystosowania w otoczeniu maksimum lokalnego Begin k=0 while( not koniec alg. nadrzędnego) Xk = wynik ewolucji z funkcją Fk(X) Fk+1(X) = deformacja(Fk(X), Xk) k = k + 1 End

Deformacje funkcji przystosowania w otoczeniu maksimum lokalnego Modyfikacja f. przystosowania zależy od maksimum znalezionego w ostatnim uruchomieniu AE.

Deformacje funkcji przystosowania w otoczeniu maksimum lokalnego Deformacja gdzie σi(Pk) to standardowe odchylenie wartości genu Xi osobników w populacji bazowej w ostatniej generacji algorytmu o numerze k.

Deformacje funkcji przystosowania w otoczeniu maksimum lokalnego

Deformacje funkcji przystosowania w otoczeniu maksimum lokalnego σi(Pk) * 1

Deformacje funkcji przystosowania w otoczeniu maksimum lokalnego σi(Pk) * 2

Deformacje funkcji przystosowania w otoczeniu maksimum lokalnego σi(Pk) * 3

Deformacje funkcji przystosowania w otoczeniu maksimum lokalnego σi(Pk) * 4

Deformacje funkcji przystosowania w otoczeniu maksimum lokalnego Deformacja: (algorytm sekwencyjnego niszowania): gdzie α jest parametrem odpowiadającym za stromość funkcji deformującej, r określa zasięg deformacji

Deformacje funkcji przystosowania w otoczeniu maksimum lokalnego Deformacja: (algorytm sekwencyjnego niszowania): Kluczowe znaczenie ma zasięg deformacji. Zbyt małe r może powodować powstawanie dodatkowych maksimów funkcji przystosowania Zbyt duże r może prowadzić do zaniku części optimów

Inicjalizacja populacji bazowej Mało badań teoretycznych i eksperymentów Wynika to z przekonania o skuteczności algorytmu bez względu na początkową populację W praktyce początkowa populacja może mieć wpływ na szybkość zbieżności algorytmu

Inicjalizacja populacji bazowej W celu zapewnienia algorytmowi jak najlepszych warunków początkowych należy dbać o jak największe zróżnicowanie populacji początkowej (najczęściej z wykorzystanie rozkładu równomiernego) Z drugiej strony, jeśli wiemy coś o zadaniu i potrafimy wskazać obiecujące obszary przestrzeni poszukiwań to warto tam wykonać nierównomierny posiew (gęstsze próbkowanie w obiecujących regionach)

Inicjalizacja populacji bazowej Znaczenie generatora liczb pseudolosowych Równomierne rozłożenie w przestrzeni ma bardzo duże znaczenie w fazie inicjalizacji populacji początkowej Należy używać generatorów liczb pseudolosowych o małej dyskrepancji

Inicjalizacja populacji bazowej Dyskrepancja Rozważmy ciąg k punktów X1, X2, .. , Xk w n-wymiarowej kostce jednostkowej [0, 1]n Każdy punkt ma przypisaną wagę wi (najczęściej wi=1/k) Dowolna kostka [0, t) = [0, t1) x [0, t2) x … x [0, tn) ma objętość równą t1*t2*…*tn

Inicjalizacja populacji bazowej Dyskrepancja t2 1 1 t1

Inicjalizacja populacji bazowej Dyskrepancja Objętość tę można przybliżać przez stosunek ważonej liczby punktów zawartych w tej kostce do ważonej liczby k wszystkich punktów. Błąd przybliżenia funkcja charakterystyczna zbioru

Inicjalizacja populacji bazowej Dyskrepancja t2 1 1 t1

Inicjalizacja populacji bazowej Dyskrepancja Aproksymacja dowolnej kostki będzie tym lepsza im bardziej równomiernie będą rozmieszczone punkty. Jako miarę równomierności rozkładu punktów można przyjąć błąd takiej aproksymacji (dyskrepancja zbioru punktów)

Znaczenie liczności populacji bazowej Powinna być mała gdyż Mała liczność zapewnia elastyczność AE Mało liczne populacje wykazują silniejsze tendencje do opuszczania obszaru przyciągania maksimum lokalnego funkcji przystosowania Duże populacje mają tendencję do „osiadania” w optimach lokalnych

Znaczenie liczności populacji bazowej Powinna być duża gdyż Lepsze wyniki można otrzymać przetwarzając populację o dużej liczbie osobników – wynika to z twierdzenia o schematach, którego wyniki otrzymuje się przy założeniu nieskończonej populacji bazowej

Znaczenie liczności populacji bazowej Inny pogląd mówi, że wraz ze wzrostem liczebności populacji, wzrasta jego odporność na optima lokalne, lecz wzrost ten ma charakter nasycający się i po przekroczeniu pewnej wielkości nie ma już zysku. Wadą z kolei jest potrzeba wykonywania kosztownych obliczeń funkcji przystosowania dla dużej liczby osobników.

Znaczenie liczności populacji bazowej Odporność algorytmu zależy od Możliwości opuszczenia przez populację obszaru przyciągania optimum lokalnego (łatwiejsze gdy populacja jest mniej liczna, gdyż nie ma tak wielu konkurentów dla zmutowanych osobników stanowiących ogniwa przejściowe) Możliwości wygenerowania punktu w populacji początkowej, który znajduje się w obszarze przyciągania optimum globalnego (łatwiejsze dla większej liczby osobników)

Równoległość w algorytmach ewolucyjnych Algorytmy ewolucyjne są technikami szczególnie nadającymi się do zrównoleglania, gdyż naraz przetwarzanych jest wiele niezależnych osobników. Równoległość można rozważać na etapie Implementacji (selekcja nadal scentralizowana) Koncepcji (decentralizacja selekcji – algorytmy koewolucyjne)

Równoległość w algorytmach ewolucyjnych Implementacje równoległe Zrównoleglenie na poziomie obliczania funkcji przystosowania pojedynczego osobnika Zrównoleglenie obliczania przystosowania populacji Zrównoleglenie reprodukcji i operacji genetycznych

Algorytmy koewolucyjne Zasada koewolucji Globalne oddziaływania selekcji i krzyżowania stają się lokalne Algorytm wyspowy (podpopulacyjny) Algorytm komórkowy (masowo równoległy, dyfuzyjny)

Algorytmy koewolucyjne Algorytm wyspowy (podpopulacyjny) Składa się z wielu populacji, które ewoluują niezależnie od siebie, wymieniając co jakiś czas informacje np. część osobników (emigranci) W każdej grupie może obowiązywać inna funkcja przystosowania (często wynikać to może z próby dekompozycji zadania)

Algorytmy koewolucyjne Algorytm komórkowy (masowo równoległy) Uznawany za skuteczną technikę optymalizacji wielomodalnej W populacji obowiązuje pewna arbitralnie wybrana topologia nie związana z topologią przestrzeni genotypów Dla każdego osobnika X jest zdefiniowane sąsiedztwo Nr(X) gdzie r to to promień sąsiedztwa

Algorytmy koewolucyjne Algorytm komórkowy (masowo równoległy) Każdy osobnik podlega ewolucji niezależnie, tzn. wchodzi w interakcję (selekcja, krzyżowanie, mutacja) tylko z osobnikami ze swego sąsiedztwa Powstaje osobnik Y, z którym konkuruje X (może zostać zastąpiony lub nie) Nazwa dyfuzyjny odzwierciedla sposób rozprzestrzeniania się nowych, dobrych rozwiązań Im więcej osobników w sąsiedztwie tym większy zasięg selekcji

Algorytmy koewolucyjne Algorytm komórkowy (masowo równoległy) Przykład topologii Populacja 36 osobników. Wyróżniony osobnik i jego sąsiedztwo. Ta przestrzeń nie ma nic wspólnego z przestrzenią rozwiązań, która może być np. 20-to wymiarowa.

KONIEC