Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe

Slides:



Advertisements
Podobne prezentacje
Sieć jednokierunkowa wielowarstwowa
Advertisements

Mechanizm wnioskowania rozmytego
SIECI NEURONOWE Sztuczne sieci neuronowe są to układy elektroniczne lub optyczne, złożone z jednostek przetwarzających, zwanych neuronami, połączonych.
Inteligencja Obliczeniowa Metody oparte na podobieństwie do wzorców.
SZTUCZNE SIECI NEURONOWE
SZTUCZNA INTELIGENCJA ARTIFICIAL INTELLIGENCE
Inteligencja Obliczeniowa Sieci dynamiczne cd.
Inteligencja Obliczeniowa Otwieranie czarnej skrzynki.
Katedra Informatyki Stosowanej UMK
Katedra Informatyki Stosowanej UMK
Uczenie konkurencyjne.
Inteligencja Obliczeniowa Sieci dynamiczne.
Inteligencja Obliczeniowa Sieci o zmiennej strukturze.
Inteligencja Obliczeniowa Perceptrony
Badania operacyjne. Wykład 1
o radialnych funkcjach bazowych
Sztuczne sieci neuronowe
Sprzężenie zwrotne Patryk Sobczyk.
Rozpoznawanie Twarzy i Systemy Biometryczne, 2005/2006
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010Optymalizacja miary efektywności działania sztucznych sieci neuronowych Dr hab. inż. Kazimierz Duzinkiewicz,
Czy potrafimy obliczyć wartość wyjścia sieci znając wartości jej wejść? Tak, przy założeniu, że znamy aktualne wartości wag i progów dla poszczególnych.
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania.
Mirosław ŚWIERCZ Politechnika Białostocka, Wydział Elektryczny
Sieci Hopfielda.
Sieci neuronowe jednokierunkowe wielowarstwowe
Sztuczne sieci neuronowe (SSN)
Klasyfikacja dokumentów za pomocą sieci radialnych Paweł Rokoszny Emil Hornung Michał Ziober Tomasz Bilski.
Klasyfikacja dokumentów za pomocą sieci radialnych
Klasyfikacja dokumentów za pomocą sieci radialnych Paweł Rokoszny Emil Hornung Michał Ziober Tomasz Bilski.
formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych
Systemy wspomagania decyzji
Sztuczne Sieci Neuronowe
formalnie: Uczenie nienadzorowane
Wspomaganie decyzji nie zwalnia od decyzji...
Detekcja twarzy w obrazach cyfrowych
Uczenie w Sieciach Rekurencyjnych
Systemy wspomagania decyzji
Modelowanie i Identyfikacja 2011/2012 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania 1 Warstwowe.
Modelowanie i identyfikacja 2010/2011Optymalizacja miary efektywności działania sztucznych sieci neuronowych Dr hab. inż. Kazimierz Duzinkiewicz, Katedra.
Marcin Jaruszewicz Jacek Mańdziuk
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
VII EKSPLORACJA DANYCH
IV EKSPLORACJA DANYCH Zadania eksploracji danych: klasyfikacja
Do technik tych zalicza się: * sztuczne sieci neuronowe
Zagadnienia AI wykład 5.
Adaptacyjne Systemy Inteligentne Maciej Bielski, s4049.
4 lipca 2015 godz pok września 2015 godz pok. 212.
Warstwowe sieci jednokierunkowe – perceptrony wielowarstwowe
Metody Sztucznej Inteligencji – technologie rozmyte i neuronowe Wnioskowanie Mamdani’ego - rozwinięcia  Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii.
Metody sztucznej inteligencji – technologie rozmyte i neuronoweReguła propagacji wstecznej  Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów.
Wybrane zagadnienia inteligencji obliczeniowej Zakład Układów i Systemów Nieliniowych I-12 oraz Katedra Mikroelektroniki i Technik Informatycznych proponują.
AI - Sztuczna inteligencja w oprogramowaniu dla przedsiębiorstw
SZTUCZNA INTELIGENCJA
 Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania 1 Metody sztucznej inteligencji – Technologie rozmyte i neuronoweSystemy.
Podstawy automatyki I Wykład 1b /2016
SZTUCZNA INTELIGENCJA
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania Modelowanie i podstawy identyfikacji 2015/2016 Modele neuronowe – podstawy,
Narzędzia AI Dominik Ślęzak, Pokój Wykład dostępny na:
GeneracjeTechnologia Architektura przetwarzania 0. Przekaźniki elektromechaniczne 1. Lampy elektronowe 2. Tranzystory 3. Układy scalone 3.5.Układy dużej.
Belief Nets Autor: inż. 2013r źródło tła:
Systemy neuronowo – rozmyte
LUDZIE POPEŁNIAJĄ BŁĘDY
Kognitywne właściwości sieci neuronowych
Metody sztucznej inteligencji
Systemy Ekspertowe i Sztuczna Inteligencja trudne pytania
Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe Machine Learning Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408.
Systemy eksperckie i sztuczna inteligencja
Inteligencja Obliczeniowa Perceptrony
Zapis prezentacji:

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe Krzysztof Regulski, WIMiIP, KISiM, regulski@agh.edu.pl B5, pok. 408

Inteligencja Czy inteligencja jest jakąś jedną dziedziną, czy też jest to nazwa dla zbioru odrębnych i niepowiązanych zdolności? Co zyskujemy w procesie uczenia się? Co to jest intuicja? Czy inteligencja może być nabyta wskutek nauki lub obserwacji, czy też jest jakoś uwarunkowana wewnętrznie? Jak wiedza wpływa na wzrost inteligencji? Czy inteligencja to szczegółowa wiedza o jakiejś dziedzinie, czy zbiór związanych ze sobą różnych zdolności? KISIM, WIMiIP, AGH

w ten sposób sztuczna inteligencja nigdy nie ma żadnych osiągnięć Inteligencja jest zdolnością do sprawnego rozwiązywania zadań intelektualnych, które zazwyczaj uchodzą za trudne. … są trudne tak długo, jak długo nie są znane algorytmy ich rozwiązywania, potem przestają być traktowane jako zadania sztucznej inteligencji w ten sposób sztuczna inteligencja nigdy nie ma żadnych osiągnięć KISIM, WIMiIP, AGH

sztuczna inteligencja - rozwiązywanie „trudnych” zadań Czy to jest trudny problem ? 98731269868414316984251684351 × 985316846315968463198643541684 A to: ”Kochanie, kup ładny kawałek wołowiny…” KISIM, WIMiIP, AGH

Czy nam to szybko grozi? KISIM, WIMiIP, AGH

Krzysztof Manc (Wynalazca) Robot kolejkowy EWA-1 -Pan tu nie stał, pan nie jest w ciąży. - Moja konstrukcja jest optymalna, tylko ludzie nie dorośli do tego. Wolą sami stać w kolejkach. Krzysztof Manc (Wynalazca) KISIM, WIMiIP, AGH

Zagadnienia Sztucznej Inteligencji (AI) Soft Computing Optymalizacja badania operacyjne Algorytmy ewolucyjne i genetyczne reprezentacja wiedzy Logika rozmyta Sieci neuronowe wnioskowanie Metody statystyczne Computational Intelligence - numeryczne Artificial Intelligence - symboliczne Systemy ekspertowe Rachunek prawdopodobieństwa Wizualizacja Data mining Uczenie maszynowe Rozpoznawanie Wzorców KISIM, WIMiIP, AGH

Przykłady zadań sztucznej inteligencji dokonywanie ekspertyz ekonomicznych, prawnych, technicznych, medycznych (ocena) wspomaganie podejmowania decyzji (doradzanie) rozpoznawanie obrazów, twarzy, wzorców, etc. optymalizacja (harmonogramowanie, alokacja zasobów, planowanie tras) generacja nowej wiedzy (poszukiwanie zalezności, tendencji, reguł, etc – data mining) prognozowanie zjawisk ekonomicznych, przyrodniczych rozumienie języka naturalnego sterowanie urządzeniami (roboty etc) i inne… KISIM, WIMiIP, AGH

Zadania sztucznej inteligencji Wnioskowanie procesem stosowania reguł wnioskowania w sposób skutecznie i efektywnie prowadzący do określonego celu wnioskowania, którym zazwyczaj jest uzyskania pewnego docelowego stwierdzenia. Uczenie się proces zmiany zachodzącej w systemie na podstawie doświadczeń, która prowadzi do poprawy jego jakości działania rozumianej jako sprawność rozwiązywania stojących przed systemem zadań. Przeszukiwanie Znajdowanie zadawalających rozwiązań bez pełnego przeglądania wszystkich możliwości, a więc jak najbardziej efektywne przeszukiwanie przestrzeni rozwiązań Przeszukiwanie przestrzeni jest procesem stosowania dostępnych operatorów do przemieszczania się między różnymi stanami w tej przestrzeni, tak aby ostatecznie trafić ze stanu początkowego do jednego ze stanów końcowych KISIM, WIMiIP, AGH

Sztuczne Sieci Neuronowe Uczenie się – Sztuczne Sieci Neuronowe KISIM, WIMiIP, AGH

Sztuczny neuron, McCulloch i Pitts,1943 KISIM, WIMiIP, AGH

Z czego składa się sztuczna sieć neuronowa? neurony KISIM, WIMiIP, AGH

Jak to wszystko działa? Rozproszone są: program działania baza wiedzy dane proces obliczania Sieć działa zawsze jako całość, równolegle Wszystkie elementy mają wkład we wszystkie czynności Duża zdolność do działania nawet po uszkodzeniach wagi – pojęcie kluczowe KISIM, WIMiIP, AGH

Po co są wagi? WAGA "NOWY" WAGA „ŁADNY" Co na to neuron? 5 1 Lubi nowe samochody; ich wygląd mało się liczy. -1 Wszystko mu jedno... -5 4 Samochód musi być ładny, ale stary. Lubi nowe i piękne auta. -4 Ekstrawagancki neuron - lubi stare, brzydkie maszyny. KISIM, WIMiIP, AGH

Po co są funkcje aktywacji? Wartość sygnału wyjściowego zależy od rodzaju funkcji w bloku aktywacji KISIM, WIMiIP, AGH

Rozpoznawanie KISIM, WIMiIP, AGH

Rozpoznawanie W jaki sposób błyskawicznie rozpoznajemy twarze znanych osób? (nawet zniekształcone) Cudów nie ma! Rozpoznajemy tylko taką twarz, której nasz mózg się nauczył. KISIM, WIMiIP, AGH

Kojarzenie KISIM, WIMiIP, AGH

Przewidywanie KISIM, WIMiIP, AGH

Do czego służy sieć neuronowa? ... do wszelkiego rodzaju rozpoznawania, kojarzenia, przewidywania ... praktycznie we wszystkich dziedzinach życia, nauki, techniki, przemysłu, ... KISIM, WIMiIP, AGH

Klasyfikacja - klasyfikacja - rozpoznawanie Klasyfikacja. Do budowy klasyfikatorów wykorzystuje się neurony o wyjściach binarnych. Przy prezentacji obrazu uaktywnia się tylko jeden element wyjściowy. Obraz wejściowy zostaje przyporządkowany określonej klasie reprezentowanej przez aktywny element. - klasyfikacja - rozpoznawanie Zadaniem procesu uczenia jest podział wzorców uczących na klasy obrazów zbliżonych do siebie i przyporządkowanie każdej klasie osobnego elementu wyjściowego KISIM, WIMiIP, AGH

Co ma wpływ na sygnały wyjściowe? Sygnał wyjściowy neuronu zależy od: sygnałów wejściowych, współczynników wagowych, funkcji aktywacji, budowy sieci KISIM, WIMiIP, AGH

Uczenie Zmieniając wartości współczynników wagowych możemy zmieniać zależności pomiędzy wektorami sygnałów wejściowych i wyjściowych sieci. Jak ustawić te współczynniki aby uzyskać żądane zależności pomiędzy tymi wektorami? Sieci neuronowych się nie programuje. Oznacza to, że wartości współczynników wag nie ustala się bezpośrednio, ulegają one zmianom podczas procesu nazywanego uczeniem sieci. KISIM, WIMiIP, AGH

Uczenie nadzorowane W procesie uczenia z nauczycielem, dla nowych wartości sygnałów wejściowych nauczyciel (zmienna zależna) podpowiada pożądaną odpowiedź. Błąd odpowiedzi służy do korygowania wag sieci. Wyjście sieci Dane uczące – zmienna zależna KISIM, WIMiIP, AGH 24

Uczenie sieci jednowarstwowej minimalizacja błędu uczenia Dla jakich wartości współczynników wagowych, błąd uczenia przyjmuje najmniejszą (minimalną) wartość? KISIM, WIMiIP, AGH

Uczenie sieci wielowarstwowej Algorytm wstecznej propagacji błędu Dla każdej próbnej liczby neuronów ukrytych tworzymy losowe wagi początkowe i uczymy sieć do chwili, gdy przestajemy osiągać poprawę. Sprawdzamy działanie sieci przy pomocy danych testowych. Jeżeli jakość sieci jest wyraźnie gorsza niż na zbiorze uczącym, to: - albo zbiór uczący jest zły (za mały lub mało reprezentatywny) - albo mamy za dużo neuronów ukrytych. Sieć jest przetrenowana. Rzutowanie wstecz błędu KISIM, WIMiIP, AGH

Uczenie bez nauczyciela KISIM, WIMiIP, AGH 27

Uczenie bez nauczyciela W procesie uczenia z nauczycielem, dla nowych wartości sygnałów wejściowych nauczyciel podpowiada pożądaną odpowiedź. Błąd odpowiedzi służy do korygowania wag sieci. Podczas uczenia bez nauczyciela pożądana odpowiedź nie jest znana. Sieć sama musi uczyć się poprzez analizę reakcji na pobudzenia (o których naturze wie mało albo nic). KISIM, WIMiIP, AGH 28

Uczenie bez nauczyciela Istnieją sytuacje, gdy sieć nie może się sama nauczyć, bez nauczyciela lub bez dodatkowej informacji o analizowanym problemie. Uczenie „bez nauczyciela” jest możliwe, gdy mamy nadmiarowość danych wejściowych. KISIM, WIMiIP, AGH

pokarm (BB) + dzwonek (BW) Reguła Hebba Reguła Hebba (1949) oparta jest na doświadczeniu Pawłowa (odruch Pawłowa). pokarm (BB) ślinienie (OB) pokarm (BB) + dzwonek (BW) ślinienie (OW) dzwonek (BW) OB - odruch bezwarunkowy, OW - odruch warunkowy, BB - bodziec bezwarunkowy, BW - bodziec warunkowy. KISIM, WIMiIP, AGH

Reguła (model neuronu) Hebba (1949) Często powtarzające się obrazy wejściowe dają silniejsza odpowiedź na wyjściu. Jeżeli akson komórki A bierze systematycznie udział w pobudzaniu komórki B powodującym jej aktywację, to wywołuje to zmianę metaboliczną w jednej lub w obu komórkach, prowadzącą do wzrostu skuteczności pobudzania B przez A KISIM, WIMiIP, AGH

Sygnałem uczącym jest po prostu sygnał wyjściowy neuronu. Reguła Hebba nazywa się także niekiedy uczeniem korelacyjnym Sygnałem uczącym jest po prostu sygnał wyjściowy neuronu. Korekta wektora wag: Często powtarzające się obrazy wejściowe dają więc silniejsza odpowiedź na wyjściu. KISIM, WIMiIP, AGH

Interpretacja geometryczne reguły Hebba x w φ wTx=|x||w|cos(φ) w(t+1) Δw x w φ |w|cos(φ) Wektor wag przemieszcza się w kierunku środka ciężkości wielkości uczących Niebezpieczeństwo: Długość wektora wag rośnie w sposób nieograniczony (o ile nie zapewnimy stopniowego zmniejszania współczynnika c) KISIM, WIMiIP, AGH

Ile warstw ukrytych ? Sieci o większej liczbie warstw ukrytych uczą się dłużej i proces uczenia jest słabiej zbieżny. Rozbudowanie sieci do dwóch warstw ukrytych jest uzasadnione w zagadnieniach w których sieć ma nauczyć się funkcji nieciągłych. Zaleca się rozpoczynać zawsze od jednej warstwy ukrytej. Jeżeli pomimo zwiększenia liczby neuronów sieć uczy się źle, wówczas należy podjąć próbę dodania dodatkowej drugiej warstwy ukrytej i zmniejszyć jednocześnie liczbę neuronów ukrytych. KISIM, WIMiIP, AGH

Ile neuronów w warstwach ukrytych ? Również i tutaj brak jednoznacznej odpowiedzi Zbyt mała liczba neuronów w warstwie ukrytej - mogą wystąpić trudności w uczenia sieci. Zbyt duża liczba neuronów - wydłużenie czasu uczenia. Może doprowadzić do tzw. nadmiernego dopasowania. Sieć uczy się wtedy "na pamięć" pewnych szczegółów i zatraca zdolność do uogólnień. Taka sieć uczy się wprost idealnie i wiernie odwzorowuje wartości zbioru uczącego. Jednakże wyniki testowania sieci na danych spoza zbioru uczącego są zazwyczaj bardzo słabe. KISIM, WIMiIP, AGH

Jak konstruować sieć ? Reasumując: Ze względu na fakt, że brak jest teoretycznych przesłanek do projektowania topologii sieci, zgodnie z zaleceniami podanymi przez Masters'a, we wstępnych pracach nad siecią dobrze jest przestrzegać następujących 3 zasad: należy stosować tylko jedną warstwę ukrytą, należy używać niewielu neuronów ukrytych, należy uczyć sieć do granic możliwości. KISIM, WIMiIP, AGH

Jak długo uczyć sieć ? Oznaką przetrenowania jest wzrost błędu dla danych testowych, przy malejącym błędzie danych uczących KISIM, WIMiIP, AGH

Prawidłowa procedura uczenia sieci Ocena jakości sieci Zbiór danych do uczenia sieci Skalowanie sygnałów Liczebność zbioru danych uczących Rozkład danych w zbiorze uczącym Trendy danych uczących Sieć nie ma zdolności do ekstrapolacji KISIM, WIMiIP, AGH

Automatyczne Sieci Neuronowe STATISTICA Adult_uczacy.sta KISIM, WIMiIP, AGH

Adult_uczacy.sta 1 2 KISIM, WIMiIP, AGH

3 4 6 5 KISIM, WIMiIP, AGH

Uwaga na czas uczenia…. KISIM, WIMiIP, AGH

KISIM, WIMiIP, AGH

KISIM, WIMiIP, AGH

KISIM, WIMiIP, AGH

KISIM, WIMiIP, AGH

Sieci Kohonena Wykrywanie grup (clustering) Uczenie rywalizacyjne (samoorganizujące się) (Self Organizing Maps – SOM) x w(t) w(t+1) α(x-w(t)) x-w(t) KISIM, WIMiIP, AGH

KISIM, WIMiIP, AGH

Uwaga na czas uczenia…. KISIM, WIMiIP, AGH

1,10 1,1 10,7 10,10 KISIM, WIMiIP, AGH

10,7 KISIM, WIMiIP, AGH

KISIM, WIMiIP, AGH

10,10 KISIM, WIMiIP, AGH

1,1 KISIM, WIMiIP, AGH

1,10 KISIM, WIMiIP, AGH

Regresja 1 KISIM, WIMiIP, AGH

KISIM, WIMiIP, AGH

1 2 3 KISIM, WIMiIP, AGH

2 3 1 R2=0,21 KISIM, WIMiIP, AGH