Marcin Jaruszewicz Jacek Mańdziuk

Slides:



Advertisements
Podobne prezentacje
Metody losowania próby
Advertisements

Instrukcje - wprowadzenie
Piotr Szwed Katedra Automatyki AGH
Rekurencja 1 Podprogram lub strukturę danych nazywamy rekurencyjną, (recursive subprogram, recursive data structure) jeżeli częściowo składa się z samej.
Sieć jednokierunkowa wielowarstwowa
Wzorce.
Predykcja współrzędnych x, y bieguna ziemskiego za pomocą sztucznych sieci neuronowych Maciej Kalarus Centrum Badań Kosmicznych PAN 5 grudnia 2003r.
Wprowadzenie do optymalizacji wielokryterialnej.
Skuteczna realizacja AG
Sieci Petriego Marcin Jałmużna.
SZTUCZNA INTELIGENCJA ARTIFICIAL INTELLIGENCE
Katedra Informatyki Stosowanej UMK
Inteligencja Obliczeniowa Sieci o zmiennej strukturze.
Inteligencja Obliczeniowa Perceptrony
Badania operacyjne. Wykład 2
Informatyka Stosowana
Sztuczne sieci neuronowe
Projektowanie Aplikacji Komputerowych
Nieelitystyczne algorytmy ewolucyjnej optymalizacji wielokryterialnej
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010Optymalizacja miary efektywności działania sztucznych sieci neuronowych Dr hab. inż. Kazimierz Duzinkiewicz,
Czy potrafimy obliczyć wartość wyjścia sieci znając wartości jej wejść? Tak, przy założeniu, że znamy aktualne wartości wag i progów dla poszczególnych.
Magda Kusiak Karol Walędzik prof. dr hab. Jacek Mańdziuk
Studium przypadku mgr inż. Krzysztof Mossakowski
Marcin Wudarczyk Dariusz Kieszkowski
Dopasowanie modelu autoregresji i predykcja stanów wody w Odrze (posterunek wodowskazowy Trestno) Tomasz Niedzielski.
Sieci Hopfielda.
Program generuje automatycznie powierzchniową mapę anamorficzną.
Sieci neuronowe jednokierunkowe wielowarstwowe
Projekt zaliczeniowy z przedmiotu "Inżynieria oprogramowania"
Klasyfikacja dokumentów za pomocą sieci radialnych Paweł Rokoszny Emil Hornung Michał Ziober Tomasz Bilski.
Klasyfikacja dokumentów za pomocą sieci radialnych
Algorytmy genetyczne.
formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych
Elementy Rachunku Prawdopodobieństwa i Statystyki
Sztuczne Sieci Neuronowe
Pierwsze programy.
Opiekun: dr inż. Maciej Ławryńczuk
Algorytmy memetyczne i ich zastosowania
Detekcja twarzy w obrazach cyfrowych
GŁOSOWA ŁĄCZNOŚĆ Z KOMPUTEREM
Podstawy programowania w języku C i C++
Analiza doboru danych uczących w predykcji indeksu giełdowego mgr Marcin Jaruszewicz dr hab. Jacek Mańdziuk.
Modelowanie i identyfikacja 2010/2011Optymalizacja miary efektywności działania sztucznych sieci neuronowych Dr hab. inż. Kazimierz Duzinkiewicz, Katedra.
Model I/O bazujący na HSWN Problem uczenia sieci HSWN
Programowanie strukturalne i obiektowe
Kilka wybranych uzupelnień
Ekonometria stosowana
Planowanie badań i analiza wyników
VI EKSPLORACJA DANYCH Zadania eksploracji danych: klasyfikacja
VII EKSPLORACJA DANYCH
Jacek Wasilewski Politechnika Warszawska Instytut Elektroenergetyki
Do technik tych zalicza się: * sztuczne sieci neuronowe
Filtr Kalmana (z ang. Kalman Filter w skrócie KF)
Mateusz Wawrzyniak & Michał Warzocha
Adaptacyjne Systemy Inteligentne Maciej Bielski, s4049.
Warstwowe sieci jednokierunkowe – perceptrony wielowarstwowe
Wybrane zagadnienia inteligencji obliczeniowej Zakład Układów i Systemów Nieliniowych I-12 oraz Katedra Mikroelektroniki i Technik Informatycznych proponują.
METODA OPERACYJNEGO PROGNOZOWAN IA WIELKOŚCI POPYTU UWZGLĘDNIAJĄCA DETERMINANTY RYNKU Doktorant: mgr inż. Łukasz Mach Warszawa 2005 Promotor: prof. dr.
Weryfikacja hipotez statystycznych dr hab. Mieczysław Kowerski
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania Modelowanie i podstawy identyfikacji 2015/2016 Modele neuronowe – podstawy,
Model przydziału zadań. Informacje wstępne ● Podaję tu uproszczoną wersję modelu, którą będziemy stosować w testach. ● Wszystkie trudniejsze wymagania,
Model ekonometryczny Jacek Szanduła.
GeneracjeTechnologia Architektura przetwarzania 0. Przekaźniki elektromechaniczne 1. Lampy elektronowe 2. Tranzystory 3. Układy scalone 3.5.Układy dużej.
Learnmatrix, Adaline, Madaline i modele liniowe
Systemy neuronowo – rozmyte
Postępy w przygotowaniu rozprawy doktorskiej
Programowanie sieciowe Laboratorium 3
Programowanie sieciowe Laboratorium 3
Programowanie sieciowe Laboratorium 4
Programowanie sieciowe Laboratorium 3
Zapis prezentacji:

Marcin Jaruszewicz Jacek Mańdziuk Dobór danych wejściowych sieci neuronowej przy pomocy algorytmów genetycznych Marcin Jaruszewicz Jacek Mańdziuk

Cel prezentacji Wyjaśnienie stanu aktualnego badań Przedstawienie szczegółów implementacji Określenie podstawowych własności algorytmu Omówienie pomysłów poprawy

Algorytm genetyczny Definicja chromosomu: Zmienne wejściowe z puli dostępnych zmiennych od 5 do 10 (parametr) Liczba warstw ukrytych SN (od 1 do 2) Przystosowanie chromosomu jest liczone jako błąd predykcji SN na rekordach walidacyjnych Chromosom, dla którego SN nie mogła się nauczyć (błąd nie malał) nazywany jest chromosomem martwym (w pp. chromosomem żywym)

Algorytm genetyczny Wstępne ograniczenie liczby zmiennych za pomocą metody macierzy autokorelacji (od 10% do 20%) – daje ok. 35 zmiennych Rekordy w pojedynczym eksperymencie: 80 uczących, 10 walidacyjnych, 10 testowych (niedostępne dla AG, do testowania jego skuteczności)

Populacja wyjściowa Parametry: liczba warstw ukrytych (1-2), liczba kodowanych zmiennych (5-10) Parametr: rozmiar populacji wyższego poziomu Dla każdego elementu wyższego poziomu tworzone są wszystkie możliwe układy parametrów chromosomów (12 chromosomów) oraz wzorców sieci neuronowych

Algorytm (1) Policz przystosowanie dla nowych osobników w populacji rodziców, znajdź i zapamiętaj najlepszy chromosom Policz przystosowanie dla nowych osobników w populacji dzieci Dla każdego chromosomu liczone jest przystosowanie według 2 sieci neuronowych (wielowątkowo)

Algorytm (2) Zamień rodziców na dzieci Znajdź najlepsze dziecko ze wszystkich możliwych Zamień rodzica na dziecko tylko jeśli błąd dziecka <= błąd rodzica Przygotuj podział populacji dla rankingu (ustalenie losowych par: rodzic1 lepszy – rodzic1 gorszy, rodzic2 lepszy – rodzic2 gorszy) Wykonaj krzyżowanie zgodnie z prawdopodobieństwem: dziecko1,2=rodzic1 lepszy + rodzic2 lepszy W krzyżowaniu powstaje tyle ile jest możliwości podziałów

Algorytm (3) Dla każdego rodzica wykonaj mutację zgodnie z prawdopodobieństwem jeśli liczba żywych chromosomów przekroczy próg (50%) mutacji podlegają również chromosomy żywe

Mutacja Zmianie podlega kodowanie zmiennych wejściowych Prawdopodobieństwo mutacji jednego genu: 0.5 dla martwych, 0.05 dla żywych Parametr określający liczbę zmian w jednym chromosomie w czasie jednej mutacji: 5 Nowa zmienna wybierana jest losowo z dostępnej puli

Krzyżowanie Prawdopodobieństwo krzyżowania: 0.9 Ustalenie punktu podziału: od 1 do maksimum z liczby kodowanych zmiennych przez rodziców -1 X Y Rodzic 1 Rodzic 2 Dziecko 1 Dziecko 2 Wybrany podział Możliwe podziały

Własności algorytmu Zmiana liczby żywych chromosomów w populacji 600 osobników Liczba mutacji na martwych i żywych chromosomach Liczba udanych krzyżowań wprowadzających do populacji żywe i martwe osobniki Zmiany jakościowe populacji

Pomysły Populacja wyjściowa Krzyżowanie Mutacja Kontrolowane losowanie z pogrupowanych zmiennych (zmienne tego samego typu, zmienne z danej giełdy) Krzyżowanie grupowanie zmiennych, żeby nie rozdzielać grup prawdopodobieństwo =1 osobno żywe od martwych Mutacja szukać najlepszej możliwej mutacji uwzględnienie oceny znaczenia zmiennej w chromosomie

Dziękuję za uwagę!