Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Algorytmy immunologiczne

Podobne prezentacje


Prezentacja na temat: "Algorytmy immunologiczne"— Zapis prezentacji:

1 Algorytmy immunologiczne
Dr inż. Michał Bereta p. 144 / 10, Instytut Informatyki

2 Zapobieganie przedwczesnej zbieżności
Przedwczesna zbieżność ma miejsce, kiedy algorytm ewolucyjny traci zdolność przeszukiwania przestrzeni rozwiązań przed osiągnięciem optimum globalnego. Nie można mu zapobiec całkowicie, gdyż wynika on z nacisku selektywnego

3 Zapobieganie przedwczesnej zbieżności
Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej Uwzględniania czasu życia osobników Deformacje funkcji przystosowania Uzależnienie nacisku selektywnego nie tylko od funkcji przystosowania lecz również od jego genotypu Metody generacji populacji początkowej Związek odporności AE od liczności populacji

4 Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej
Zakładamy, że istnieje algorytm przeszukiwania lokalnego, który każdemu chromosomowi znajdującemu się w obszarze przyciągania danego optimum lokalnego przyporządkowuje to optimum lokalne. Przykład: Algorytm opt-2 w problemie komiwojażera uruchamiany dla każdego chromosomu.

5 Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej
Korzyści: AE szybko lokalizuje obiecujące obszary w przestrzeni poszukiwań, jednak znalezienie dokładnej wartości optimum (dostrajanie) jest żmudnym i długotrwałym procesem.

6 Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej
Sposoby łączenie AE i metod lokalnych Przeszukiwanie lokalne jako dodatkowy operator genetyczny Przeszukiwanie lokalne jako jeden z elementów odwzorowania genotypu w fenotyp

7 Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej
Przeszukiwanie lokalne jako dodatkowy operator genetyczny Osobnik X jest zastępowany przez osobnika Y uzyskanego w wyniku optymalizacji lokalnej Można wykonać jedynie kilka kroków optymalizacji lokalnej Może to prowadzić do przyspieszenia ewolucji Przykład: Korzystanie z gradientu funkcji

8 Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej
Wada Wykorzystanie optymalizacji lokalnej jest źródłem dodatkowego nacisku selektywnego, które może wprowadzić tendencję do preferowania maksimów lokalnych. Należy dbać wtedy o zachowanie różnorodności osobników w populacji.

9 Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej
Przeszukiwanie lokalne jako jeden z elementów odwzorowania genotypu w fenotyp Wykorzystywane podczas obliczania funkcji przystosowania osobnika Oryginalny chromosom X (jego fenotyp) stanowi punkt startowy dla metody lokalnej. Uzyskiwany jest osobnik Y oraz jego ocena. Dysponujemy dwoma osobnikami i dwiema wartościami funkcji oceny.

10 Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej
Dysponujemy dwoma osobnikami i dwiema wartościami funkcji oceny. Można je wykorzystać na kilka sposobów. Wartości Y oraz F(Y) są zapamiętywane, lecz nie są wprowadzane do populacji bazowej (mogą być wykorzystane podczas oceny osobników lub w kryterium zatrzymania)

11 Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej
Dysponujemy dwoma osobnikami i dwiema wartościami funkcji oceny. Można je wykorzystać na kilka sposobów. Wartości Y oraz F(Y) są zapamiętywane, lecz nie są wprowadzane do populacji bazowej (mogą być wykorzystane podczas oceny osobników lub w kryterium zatrzymania) Wartość F(Y) jest traktowana jako wartość przystosowania osobnika X (efekt Baldwina)

12 Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej
Dysponujemy dwoma osobnikami i dwiema wartościami funkcji oceny. Można je wykorzystać na kilka sposobów. Wartości Y oraz F(Y) są zapamiętywane, lecz nie są wprowadzane do populacji bazowej (mogą być wykorzystane podczas oceny osobników lub w kryterium zatrzymania) Wartość F(Y) jest traktowana jako wartość przystosowania osobnika X (efekt Baldwina) Osobnik Y zastępuje osobnika X, wykorzystywana jest funkcja oceny F(Y) (ewolucja lamarkowska)

13 Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej
Baldwin (amerykański ewolucjonista) doszedł do wniosku, że genotyp osobnika określa jego predyspozycje, które w wyniku doświadczeń, oddziaływań środowiska uczenia się prowadzą do modyfikacji fenotypu i zwiększania funkcji przystosowania. Przyczyną występowania wspólnych cech nie jest dziedziczenie cech nabytych lecz jedynie predyspozycji.

14 Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej
Efekt Baldwina Jest to przypisanie osobnikowi wartości funkcji przystosowania , która jest wynikiem działania metody optymalizacji lokalnej, modelującej proces adaptacji fenotypowych cech osobnika do warunków środowiska Metoda lokalna działa na fenotypie Z punktu widzenia osobników funkcja przystosowania przybiera postać wielu płaskowyżów, z których każdy pokrywa się z obszarem przyciągania maksimum (minimum) lokalnego

15 Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej
Efekt Baldwina

16 Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej
Lamarkizm Hipoteza rozwoju gatunków polegająca na dziedziczeniu cech nabytych w trakcie życia osobniczego. Współczesny ewolucjonizm odrzuca ten pogląd z powodu braku dowodów na istnienie mechanizmów modyfikacji genotypów na podstawie adaptacji całego organizmu Można jednak wykorzystać tę ideę do tworzenia AE

17 Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej
Ewolucja lamarkowska W AE polega na tym, że znaleziony w wyniku optymalizacji lokalnej nowy osobnik Y zastępuje osobnika oryginalnego X. W wyniku tego cała populacja jest ściągana do optimów lokalnych i następuje zmniejszenie różnorodności populacji – algorytm ma bardzo eksploatacyjny charakter.

18 Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej
Ewolucja lamarkowska Zastępowanie powoduje niebezpieczeństwo zaniku różnorodności populacji

19 Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej
Ewolucja lamarkowska Zastępowanie powoduje niebezpieczeństwo zaniku różnorodności populacji Takie same lub bardzo podobne osobniki.

20 Połączenie algorytmu ewolucyjnego i metod optymalizacji lokalnej
Ewolucja lamarkowska - wady Mało odporna na pułapki ewolucyjne – potrzebne makromutacje by uciec z minimów lokalnych Mechanizm ten może utrudniać powstawanie osobników tzw. „ogniw pośrednich” – zazwyczaj gorszych niż chromosomy bliskie lokalnych optimów. Wymaga dodatkowych mechanizmów zwiększających różnorodność populacji

21 Uwzględniania czasu życia osobników
Sukcesja elitarna gwarantuje przeżycie najlepszego osobnika Zaleta – szybsza zbieżność algorytmu Wada – mała odporność na pułapki ewolucyjne oraz zaburzenia procesu samoczynnej adaptacji (np. parametrów mutacji)

22 Uwzględniania czasu życia osobników
Możliwe rozwiązanie Wprowadzenie maksymalnego czasu życia osobnika Ze starej populacji bazowej usuń wszystkie osobniki, których czas życia przekroczył limit Wyłoń elitę z pozostałych osobników Taki schemat wprowadzono w strategiach ewolucyjnych (μ, κ, λ) μ – rozmiar populacji bazowej κ – maksymalny czas życia λ – rozmiar populacji potomnej Rozmiar populacji jest stały.

23 Uwzględniania czasu życia osobników
Możliwe rozwiązanie 2 Uzależnić czas życia osobnika od wartości jego przystosowania oraz przystosowania innych osobników w populacji w poprzednich k pokoleniach Zmienny rozmiar populacji Należy określić postać funkcji fl(X) przydzielającej długość życia osobnikom w momencie ich powstawania Reprodukcja zachodzi z jednakowym prawdopodobieństwem dla każdego Im lepszy osobnik tym więcej potomstwa wyda, gdyż dłużej żyje

24 Uwzględniania czasu życia osobników
Funkcja liniowa lmax – maksymalny czas życia lmin – mininalny czas życia lav = (lmin + lmax)/2 – średni czas życia Fmin, Fmax, Fav – minimalna, maksymalna i średnia wartość funkcji przystosowania w pewnym oknie czasowym

25 Uwzględniania czasu życia osobników
Funkcja proporcjonalna lmax – maksymalny czas życia lmin – mininalny czas życia lav = (lmin + lmax)/2 – średni czas życia Fmin, Fmax, Fav – minimalna, maksymalna i średnia wartość funkcji przystosowania w pewnym oknie czasowym

26 Uwzględniania czasu życia osobników
Funkcja biliniowa lmax – maksymalny czas życia lmin – mininalny czas życia lav = (lmin + lmax)/2 – średni czas życia Fmin, Fmax, Fav – minimalna, maksymalna i średnia wartość funkcji przystosowania w pewnym oknie czasowym

27 Uwzględniania czasu życia osobników
Liczba nowych potomków w każdej iteracji Stała wartość λ – bardziej stabilny algorytm – skończona maksymalny rozmiar populacji λ*(lmax+1) Stała proporcja λ/μ – rozmiar populacji może rosnąć w nieskończoność

28 Uwzględniania czasu życia osobników
Eksperymenty pokazują, że właściwości tego algorytmu w niewielkim stopniu zależą od liczności początkowej populacji bazowej. Oznacza to, że można uniknąć kłopotliwego dobierania optymalnej liczności populacji bazowej.

29 Optymalizacja wielomodalna
Funkcja przystosowania nie zawsze uwzględnia wszystkie elementy mające wpływ na jakość rozwiązania Wynikać to może z pewnych niemierzalnych cech (np. estetyka rozwiązania) bądź koniecznych uproszczeń zastosowanych w modelu Oznacza to, że w zbiorze rozwiązań globalnych zadania mogą występować lepsze i gorsze Może się okazać, że ostatecznie wybrane zostanie jedno z rozwiązań lokalnie optymalnych

30 Optymalizacja wielomodalna
Mając to na uwadze, czasami warto prowadzić poszukiwania wielu rozwiązań optymalnych oraz suboptymalnych Optymalizacja wielomodalna ma na celu znalezienie jak największej liczby jak najlepszych, różnych maksimów funkcji przystosowania.

31 Optymalizacja wielomodalna
Podstawowym wymogiem w ewolucyjnej optymalizacji wielomodalnej jest utrzymywanie różnorodności populacji Przeszkodą w osiągnięciu tego celu jest globalny zasięg działania selekcji W czasie selekcji konkurują ze sobą wszystkie osobniki, w wyniku czego pod koniec ewolucji w populacji dominują potomkowie najlepszego z nich

32 Optymalizacja wielomodalna
Rozwiązanie problemu Dodanie czynnika losowego, niezależnego od stanu populacji Zmniejszenie zasięgu selekcji – ograniczenie konkurencji do osobników podobnych do siebie w przestrzeni genotypów. Mowa jest wtedy o kształtowaniu się nisz

33 Optymalizacja wielomodalna
Dodanie czynnika losowego, niezależnego od stanu populacji Wprowadzanie osobników losowych (tzw. technika losowych imigrantów) Część populacji potomnej powstaje w wyniku operacji genetycznych na aktualnej populacji, część jest losowo wygenerowanymi nowymi osobnikami Ułatwia uniknięcia optimów lokalnych ale prowadzi do wolniejszej zbieżności Można to traktować jako operator genetyczny podobny do mutacji

34 Optymalizacja wielomodalna
Dodanie czynnika losowego, niezależnego od stanu populacji Okresowa odnowa algorytmu (algorytm ewolucyjny z odnową lub algorytm z destrukcyjnym restartem) Polega na wykonaniu ciągu powiązanych ze sobą AE Pierwszy algorytm zaczyna od całkowicie losowej populacji początkowej Kolejne uruchomienia są inicjowane na podstawie rozwiązań otrzymanych z poprzedniego uruchomienia algorytmu poprzez wykorzystanie mutacji o dużym zasięgu

35 Optymalizacja wielomodalna
Dodanie czynnika losowego, niezależnego od stanu populacji Losowe zaburzenia funkcji przystosowania Polega na dodaniu szumu do funkcji przystosowania, tak że jej wartość staje się zmienną losową Najczęściej wykorzystywany jest rozkład normalny o zerowej wartości średniej i wariancji stałej bądź zmniejszanej wraz z kolejnymi generacjami Metoda dobrze radzi sobie z „płytkimi” pułapkami ewolucyjnymi

36 Optymalizacja wielomodalna
Wyłanianie nisz Wyróżnianie podpopulacji na podstawie odległości genotypów, podział jest odnawiany co jakiś czas Koewolucja – równoległa ewolucja wielu autonomicznych populacji z częściową wymianą materiału genetycznego Lokalna deformacja funkcji przystosowania

37 Osłabienie konkurencyjności w ramach selekcji
Metoda podziału przystosowania (ang. fitness sharing) Polega na obniżeniu wartości funkcji przystosowania osobnika w stopniu proporcjonalnym do liczby osobników w jego otoczeniu Wymagane jest określenie postaci funkcji podziału fs Na nową wartość oceny wpływa ocena wszystkich osobników w populacji

38 Fitness sharing Zmodyfikowana funkcja przystosowania Gdzie |X-Y| jest metryką w przestrzeni genotypów Funkcja fs(d) powinna spełniać warunki:

39 Fitness sharing Oddziaływanie funkcji podziału na funkcję przystosowania polega na obniżaniu jej w miejscach, w których gęstość liczby osobników jest duża.

40 Fitness sharing Populację osobników Y, dla których fs(|X-Y|)>0 nazywa się niszą. Algorytm wykorzystujący tę technikę nazywamy algorytmem niszowym (ang. niching evolutionary algorithm)

41 Fitness sharing Przykład dla funkcji gdzie σshare - rozmiar otoczenia wokół danego rozwiązania α – parametr skalujący

42 Fitness sharing

43 Fitness sharing σshare = 3.0 α = 0.5

44 Fitness sharing Może się zdarzyć, że chromosomy znajdujące się blisko globalnego maksimum będą miały tak obniżoną wartość funkcji przystosowania, że będą miały problemy z przekazaniem swoich genów. Może wtedy dojść do „migotania” populacji czyli oscylacji między obszarami przyciągania różnych maksimów.

45 Fitness sharing Migotania można się pozbyć ustalając mianownik związany z podziałem jako różny dla każdego osobnika. Z dwóch osobników identycznych większą ocenę otrzyma osobnik, który jako pierwszy był brany pod uwagę.

46 Metody grupowania w AE AE można zmodyfikować w taki sposób, by przed wykonaniem reprodukcji populację bazową Pt podzielić na v rozłącznych populacji Ptc c= 1..v Dla każdej z grup wykonuje się osobno selekcję i operacje genetyczne. Podpopulacje mogą się zmieniać z generacji na generację.

47 Metody grupowania w AE Grupowanie polega na wyodrębnieniu takich grup, by osobnik w obrębię każdej grupy był maksymalnie do siebie podobne i maksymalnie się różniły od osobników w innych grupach. Algorytmy C-means (k-średnich) Fuzzy C-means itp.

48 Preselekcja Metoda podobna do metod bazujących na grupowaniu
Polega na modyfikowaniu sukcesji, podczas której uwzględnia się, oprócz wartości funkcji przystosowania, również relację między genotypami osobników.

49 Preselekcja Schemat: Po utworzeniu nowego osobnika zwyczajnym sposobem (selekcja + operatory genetyczne) z populacji bazowej usuwany jest jeden osobnik Po zakończenie cyklu reprodukcji i operatorów genetycznych populacja potomna i resztki populacji bazowej tworzą nową populację bazową

50 Preselekcja Dwa sposoby wyboru osobników do wymiany
Jeden z osobników rodzicielskich (np. o najmniejszej wartości funkcji przystosowania jeśli jest gorszy od potomka) Osobnik z populacji, który jest najbardziej podobny do potomka (ścisk) (niezależnie od jego oceny) Schemat ze ściskiem: w celu przyspieszenia obliczeń można wybrać pewien podzbiór osobników populacji bazowej (o liczności k – współczynnik ścisku), spośród których wybrany zostanie osobnik do odrzucenia.

51 Deformacje funkcji przystosowania w otoczeniu maksimum lokalnego
Begin k=0 while( not koniec alg. nadrzędnego) Xk = wynik ewolucji z funkcją Fk(X) Fk+1(X) = deformacja(Fk(X), Xk) k = k + 1 End

52 Deformacje funkcji przystosowania w otoczeniu maksimum lokalnego
Modyfikacja f. przystosowania zależy od maksimum znalezionego w ostatnim uruchomieniu AE.

53 Deformacje funkcji przystosowania w otoczeniu maksimum lokalnego
Deformacja gdzie σi(Pk) to standardowe odchylenie wartości genu Xi osobników w populacji bazowej w ostatniej generacji algorytmu o numerze k.

54 Deformacje funkcji przystosowania w otoczeniu maksimum lokalnego

55 Deformacje funkcji przystosowania w otoczeniu maksimum lokalnego
σi(Pk) * 1

56 Deformacje funkcji przystosowania w otoczeniu maksimum lokalnego
σi(Pk) * 2

57 Deformacje funkcji przystosowania w otoczeniu maksimum lokalnego
σi(Pk) * 3

58 Deformacje funkcji przystosowania w otoczeniu maksimum lokalnego
σi(Pk) * 4

59 Deformacje funkcji przystosowania w otoczeniu maksimum lokalnego
Deformacja: (algorytm sekwencyjnego niszowania): gdzie α jest parametrem odpowiadającym za stromość funkcji deformującej, r określa zasięg deformacji

60 Deformacje funkcji przystosowania w otoczeniu maksimum lokalnego
Deformacja: (algorytm sekwencyjnego niszowania): Kluczowe znaczenie ma zasięg deformacji. Zbyt małe r może powodować powstawanie dodatkowych maksimów funkcji przystosowania Zbyt duże r może prowadzić do zaniku części optimów

61 Inicjalizacja populacji bazowej
Mało badań teoretycznych i eksperymentów Wynika to z przekonania o skuteczności algorytmu bez względu na początkową populację W praktyce początkowa populacja może mieć wpływ na szybkość zbieżności algorytmu

62 Inicjalizacja populacji bazowej
W celu zapewnienia algorytmowi jak najlepszych warunków początkowych należy dbać o jak największe zróżnicowanie populacji początkowej (najczęściej z wykorzystanie rozkładu równomiernego) Z drugiej strony, jeśli wiemy coś o zadaniu i potrafimy wskazać obiecujące obszary przestrzeni poszukiwań to warto tam wykonać nierównomierny posiew (gęstsze próbkowanie w obiecujących regionach)

63 Inicjalizacja populacji bazowej
Znaczenie generatora liczb pseudolosowych Równomierne rozłożenie w przestrzeni ma bardzo duże znaczenie w fazie inicjalizacji populacji początkowej Należy używać generatorów liczb pseudolosowych o małej dyskrepancji

64 Inicjalizacja populacji bazowej
Dyskrepancja Rozważmy ciąg k punktów X1, X2, .. , Xk w n-wymiarowej kostce jednostkowej [0, 1]n Każdy punkt ma przypisaną wagę wi (najczęściej wi=1/k) Dowolna kostka [0, t) = [0, t1) x [0, t2) x … x [0, tn) ma objętość równą t1*t2*…*tn

65 Inicjalizacja populacji bazowej
Dyskrepancja t2 1 1 t1

66 Inicjalizacja populacji bazowej
Dyskrepancja Objętość tę można przybliżać przez stosunek ważonej liczby punktów zawartych w tej kostce do ważonej liczby k wszystkich punktów. Błąd przybliżenia funkcja charakterystyczna zbioru

67 Inicjalizacja populacji bazowej
Dyskrepancja t2 1 1 t1

68 Inicjalizacja populacji bazowej
Dyskrepancja Aproksymacja dowolnej kostki będzie tym lepsza im bardziej równomiernie będą rozmieszczone punkty. Jako miarę równomierności rozkładu punktów można przyjąć błąd takiej aproksymacji (dyskrepancja zbioru punktów)

69 Znaczenie liczności populacji bazowej
Powinna być mała gdyż Mała liczność zapewnia elastyczność AE Mało liczne populacje wykazują silniejsze tendencje do opuszczania obszaru przyciągania maksimum lokalnego funkcji przystosowania Duże populacje mają tendencję do „osiadania” w optimach lokalnych

70 Znaczenie liczności populacji bazowej
Powinna być duża gdyż Lepsze wyniki można otrzymać przetwarzając populację o dużej liczbie osobników – wynika to z twierdzenia o schematach, którego wyniki otrzymuje się przy założeniu nieskończonej populacji bazowej

71 Znaczenie liczności populacji bazowej
Inny pogląd mówi, że wraz ze wzrostem liczebności populacji, wzrasta jego odporność na optima lokalne, lecz wzrost ten ma charakter nasycający się i po przekroczeniu pewnej wielkości nie ma już zysku. Wadą z kolei jest potrzeba wykonywania kosztownych obliczeń funkcji przystosowania dla dużej liczby osobników.

72 Znaczenie liczności populacji bazowej
Odporność algorytmu zależy od Możliwości opuszczenia przez populację obszaru przyciągania optimum lokalnego (łatwiejsze gdy populacja jest mniej liczna, gdyż nie ma tak wielu konkurentów dla zmutowanych osobników stanowiących ogniwa przejściowe) Możliwości wygenerowania punktu w populacji początkowej, który znajduje się w obszarze przyciągania optimum globalnego (łatwiejsze dla większej liczby osobników)

73 Równoległość w algorytmach ewolucyjnych
Algorytmy ewolucyjne są technikami szczególnie nadającymi się do zrównoleglania, gdyż naraz przetwarzanych jest wiele niezależnych osobników. Równoległość można rozważać na etapie Implementacji (selekcja nadal scentralizowana) Koncepcji (decentralizacja selekcji – algorytmy koewolucyjne)

74 Równoległość w algorytmach ewolucyjnych
Implementacje równoległe Zrównoleglenie na poziomie obliczania funkcji przystosowania pojedynczego osobnika Zrównoleglenie obliczania przystosowania populacji Zrównoleglenie reprodukcji i operacji genetycznych

75 Algorytmy koewolucyjne
Zasada koewolucji Globalne oddziaływania selekcji i krzyżowania stają się lokalne Algorytm wyspowy (podpopulacyjny) Algorytm komórkowy (masowo równoległy, dyfuzyjny)

76 Algorytmy koewolucyjne
Algorytm wyspowy (podpopulacyjny) Składa się z wielu populacji, które ewoluują niezależnie od siebie, wymieniając co jakiś czas informacje np. część osobników (emigranci) W każdej grupie może obowiązywać inna funkcja przystosowania (często wynikać to może z próby dekompozycji zadania)

77 Algorytmy koewolucyjne
Algorytm komórkowy (masowo równoległy) Uznawany za skuteczną technikę optymalizacji wielomodalnej W populacji obowiązuje pewna arbitralnie wybrana topologia nie związana z topologią przestrzeni genotypów Dla każdego osobnika X jest zdefiniowane sąsiedztwo Nr(X) gdzie r to to promień sąsiedztwa

78 Algorytmy koewolucyjne
Algorytm komórkowy (masowo równoległy) Każdy osobnik podlega ewolucji niezależnie, tzn. wchodzi w interakcję (selekcja, krzyżowanie, mutacja) tylko z osobnikami ze swego sąsiedztwa Powstaje osobnik Y, z którym konkuruje X (może zostać zastąpiony lub nie) Nazwa dyfuzyjny odzwierciedla sposób rozprzestrzeniania się nowych, dobrych rozwiązań Im więcej osobników w sąsiedztwie tym większy zasięg selekcji

79 Algorytmy koewolucyjne
Algorytm komórkowy (masowo równoległy) Przykład topologii Populacja 36 osobników. Wyróżniony osobnik i jego sąsiedztwo. Ta przestrzeń nie ma nic wspólnego z przestrzenią rozwiązań, która może być np. 20-to wymiarowa.

80 KONIEC


Pobierz ppt "Algorytmy immunologiczne"

Podobne prezentacje


Reklamy Google