Sztuczne Sieci Neuronowe Modele neuronowe

Slides:



Advertisements
Podobne prezentacje
Włodzisław Duch Katedra Informatyki Stosowanej,
Advertisements

Sieć jednokierunkowa wielowarstwowa
Mechanizm wnioskowania rozmytego
SIECI NEURONOWE Sztuczne sieci neuronowe są to układy elektroniczne lub optyczne, złożone z jednostek przetwarzających, zwanych neuronami, połączonych.
Inteligencja Obliczeniowa Metody oparte na podobieństwie do wzorców.
SZTUCZNE SIECI NEURONOWE
SZTUCZNA INTELIGENCJA ARTIFICIAL INTELLIGENCE
Inteligencja Obliczeniowa Modele neuronowe
Inteligencja Obliczeniowa Sieci dynamiczne cd.
Inteligencja Obliczeniowa Otwieranie czarnej skrzynki.
Katedra Informatyki Stosowanej UMK
Katedra Informatyki Stosowanej UMK
Uczenie konkurencyjne.
Samoorganizacja: uczenie bez nadzoru.
Inteligencja Obliczeniowa Sieci dynamiczne.
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Inteligencja Obliczeniowa Sieci o zmiennej strukturze.
Inteligencja Obliczeniowa Perceptrony
Sieci neuronowe - architektury i zastosowania
Sztuczne sieci neuronowe
Sztuczna Inteligencja Reprezentacja wiedzy I Logika przybliżona
Sztuczna Inteligencja Reprezentacja wiedzy II
Sztuczna Inteligencja Reprezentacja wiedzy II Systemy produkcyjne Włodzisław Duch Katedra Informatyki Stosowanej UMK Google: W. Duch.
Sztuczna Inteligencja Reprezentacja wiedzy I Wstęp. Włodzisław Duch Katedra Informatyki Stosowanej UMK Google: W. Duch.
Czy potrafimy obliczyć wartość wyjścia sieci znając wartości jej wejść? Tak, przy założeniu, że znamy aktualne wartości wag i progów dla poszczególnych.
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania.
Krzysztof Suchecki wybrana prezentacja z konferencji ECCS'07 w Dreźnie Interacting Random Boolean Networks.
mgr inż. Rafał Komański styczeń 2004
Mirosław ŚWIERCZ Politechnika Białostocka, Wydział Elektryczny
Sieci Hopfielda.
Sztuczne sieci neuronowe (SSN)
Klasyfikacja dokumentów za pomocą sieci radialnych
formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych
Systemy wspomagania decyzji
Sztuczne Sieci Neuronowe
formalnie: Uczenie nienadzorowane
Wspomaganie decyzji nie zwalnia od decyzji...
Uczenie w Sieciach Rekurencyjnych
Systemy wspomagania decyzji
Modelowanie i Identyfikacja 2011/2012 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania 1 Warstwowe.
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
Do technik tych zalicza się: * sztuczne sieci neuronowe
Sieci neuronowe, falki jako przykłady metod analizy sygnałów
Warstwowe sieci jednokierunkowe – perceptrony wielowarstwowe
Dynamika punktu materialnego Dotychczas ruch był opisywany za pomocą wektorów r, v, oraz a - rozważania geometryczne. Uwzględnienie przyczyn ruchu - dynamika.
Metody sztucznej inteligencji – technologie rozmyte i neuronoweReguła propagacji wstecznej  Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów.
Wybrane zagadnienia inteligencji obliczeniowej Zakład Układów i Systemów Nieliniowych I-12 oraz Katedra Mikroelektroniki i Technik Informatycznych proponują.
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania Modelowanie i podstawy identyfikacji 2015/2016 Modele neuronowe – podstawy,
Narzędzia AI Dominik Ślęzak, Pokój Wykład dostępny na:
GeneracjeTechnologia Architektura przetwarzania 0. Przekaźniki elektromechaniczne 1. Lampy elektronowe 2. Tranzystory 3. Układy scalone 3.5.Układy dużej.
Belief Nets Autor: inż. 2013r źródło tła:
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Learnmatrix, Adaline, Madaline i modele liniowe
Systemy neuronowo – rozmyte
Samoorganizacja: uczenie bez nadzoru
Kognitywne właściwości sieci neuronowych
Perceptrony o dużym marginesie błędu
Sztuczne Sieci Neuronowe Modele neuronowe
Metody sztucznej inteligencji
Włodzisław Duch Katedra Informatyki Stosowanej,
Perceptrony o dużym marginesie błędu
Systemy Ekspertowe i Sztuczna Inteligencja trudne pytania
Inteligencja Obliczeniowa Perceptrony
Katedra Informatyki Stosowanej UMK
Inteligencja Obliczeniowa Modele neuronowe
Samoorganizacja: uczenie bez nadzoru
Perceptrony wielowarstwowe, wsteczna propagacja błędów
Zapis prezentacji:

Sztuczne Sieci Neuronowe Modele neuronowe Wykład 2 Włodzisław Duch Katedra Informatyki Stosowanej, WFAiIS Laboratorium Neurokognitywne ICNT Uniwersytet Mikołaja Kopernika Google: W. Duch (c) 1999. Tralvex Yeap. All Rights Reserved

Ostatnio omówiliśmy: problemy efektywnie niealgorytmizowalne, Inteligencja obliczeniowa i sztuczna inteligencja, problemy CI inspiracje dla CI cele CI adaptacja i rodzaje uczenia przykłady zastosowań

Inspiracje biologiczne Organizmy, mózgi, układy biologiczne – potrafią rozwiązywać interesujące, efektywnie niealgorytmizowalne problemy. Problem: układy biologiczne są zbyt skomplikowane by modelować szczegóły ich działania. Neurony: bardzo skomplikowana budowa, chociaż istnieje dobra teoria pozwalająca na bardzo szczegółowe symulacje własności pojedynczych neuronów. Jedynie ogólne zasady organizacji i sposobu funkcjonowania układów biologicznych neuronów mogą służyć za inspirację. Sztuczne sieci neuronowe (ANN, Artificial Neural Networks) nie przypominają zbytnio biologicznych. Inspiracja: zbadać możliwości obliczania za pomocą sieci prostych, oddziaływujących ze sobą (w nieliniowy sposób) elementów.

Rys historyczny 1938 N. Rashevsky, neurodynamika 1943 W. McCulloch & W. Pitts, sieci neuronowe jako układy logiczne (progowe) 1949 D. Hebb, uczenie się na poziomie synaptycznym 1958 F. Rosenblatt, Perceptron J. von Neuman, The computer and the brain 1960 B. Widrow, M. Hoff, Adeline 1961 E. Caianiello, teoria procesów myślowych, równanie mnemoniczne (szkoły Caianiello) 1967 K. Steinbuch, E. Schmitt, Macierze uczące się 1969 M. Minsky, S. Papert, książka „Perceptrony” 1973 Chr. von der Malsburg, samoorganizacja w układzie nerwowym 1976 S. Grossberg, modele rozwoju postrzegania przez mózg

Rys historyczny 2 1977 S-I. Amari, neuronowa teoria tworzenia się koncepcji 1981 J. McClelland, D. Rumelhart, model interakcyjnej aktywacji 1982 J. Hopfield, model Hopfielda; T. Kohonen, samoorganizacja map topograficznych mózgu 1983 K. Fukushima, S. Miyake, T. Ito, neokognitron, głęboka sieć neuro 1984 F. Crick, sieci i neuronalne podstawy świadomości 1985 D. Ackley, G. Hinton, T. Sejnowski, maszyny Boltzmana 1986 D. Rumelhart, G. Hinton, R. Williams, wsteczna propagacja błędów 1987 G. Carpenter, S. Grossberg, model ART; W. Freeman, Chaos w mózgu 1988 B. Kosko, prosty model BAM N. Qian, T. Sejnowski, zastosowania do zwijania białek i Nettalk 1990 T. Poggio, F. Girosi, sieci RBF, teoria regularyzacji. 1997 S. Hochreiter, J. Schmidhuber, sieć rekurencyjna LSTM 1998 Y. LeCun i inn, sieci konwolucyjne w analizie obrazów. 2005 GPU do sieci konwolucyjnych, bardzo duże sieci, głębokie uczenie.

Możliwości modelowania mózgu Matematyczne (analityczne) - ograniczone. Elektroniczne - złożone modele, aktywna dziedzina Komputerowe - symulacja, najciekawsze wyniki. Jaki jest cel modelowania? Neurony: logiczne, impulsujące, wielostanowe, progowe ... ANN, sztuczne sieci neuronowe – liczne zastosowania techniczne, modele funkcji mózgu, neurony impulsujące lub progowe. PDP, Parallel Data Processing, czyli rozproszone przetwarzanie danych – szersza kategoria, bo są tu wszelkie modele sieciowe, niekoniecznie neuronowe. Wiarygodność biologiczna vs. liczba neuronów sieci: im prostsze elementy tym bardziej złożone sieci można konstruować.

Ogólne własności modeli neuronowych Modele neuronowe to: podklasa modeli adaptacyjnych (adaptive systems); podklasa modeli PDP - Parallel Distributed Processing, czyli modeli opartych na przetwarzaniu rozproszonym (współbieżnym). Sposób uczenia: Uczenie „nadzorowane” (supervised), do asocjacji (hetero i auto), czyli skojarzeń par struktur wejściowych i wyjściowych. Uczenie się bez nadzoru (unsupervised learning), do wykrywania regularności tj. reakcji na „interesujące” sygnały, uczenie indukcyjne – uogólnianie przykładów. Uczenie z krytykiem lub wzmocnieniem (reinforcement learning), Uczenie strategii postępowania na podstawie krytyki po dłuższym okresie czasu, uczenie się celowego zachowania na podstawie interakcji ze środowiskiem.

Inteligentne zachowania modeli NN Autoasocjacja: struktury przestawiane są wielokrotnie a system ma je zapamiętać i przypomnieć sobie gdy przedstawi się im podobne, tj. skojarzyć. Asocjacja struktur: struktury przestawiane są wielokrotnie, parami (X,Y), pojawienie się X ma wywołać Y. Pamięć adresowalna kontekstowo: wydobywanie informacji nie przez znajomość miejsca, ale atrybutów informacji. Klasyfikacja (diagnoza, rozpoznanie): przypisać dane do jednej z ustalonych kategorii. Detektor regularności: struktury pojawiają się z pewnym prawdopodobieństwem, należy wykryć statystyczne regularności tworząc nowe kategorie lub prototypy. Nie ma nauczyciela. Optymalne spełnianie ograniczeń: wiele rozwiązań, ale nie zachowujących wszystkich ograniczeń; szukanie kompromisu.

Główne aspekty modeli neuronowych Sposób modelowania pojedynczego neuronu, zbiór elementów przetwarzających (PE, processing elements). 2. Stan aktywacji (wzbudzenia) poszczególnych neuronów. 3. Sposób aktywacji tych neuronów. 4. Funkcja opisująca sygnał wyjściowy elementu.

Aspekty NN cd. 5. Sposób propagacji sygnałów przez sieć neuronową – jeden kierunek (feedforward), dozwolne sprzężenia zwrotne, pełna rekurencja. 6. Topologia połączeń elementów, czyli architektury sieci: budowa warstwowa, hierarchiczna, specyficzne warstwy … 7. Reguły modyfikacji parametrów opisujących neurony i połączenia pomiędzy nimi (reguły uczenia się), uczenie w sposób ciągły (on-line) lub na większej bazie zgromadzonych danych. 8. Otoczenie, w którym działa sieć neuronowa; sposób prezentacji danych - batch, czyli paczkami, okienko o ustalonej długości. 9. Realizacja techniczna całości: język programowania, wykorzystanie GPU lub zrównoleglenie obliczeń.

O neuronach Neurony biologiczne – bardzo skomplikowane, jak wszystko w biologii. Computational Cognitive Neuroscience – modelowanie pojedynczych neuronów i niewielkich grup tak, by zachować mierzalne parametry. Impulsy wysyłane przez neurony => nieliniowe zachowanie. Analiza zjawisk nieliniowych – trudna, niewiele ścisłych rezultatów, niskie wymiary zagadnień a neurony mają tysiące synaps! Metody analityczne są tu mało przydatne. Alternatywy: symulacje komputerowe, i elektroniczne układy analogowe. Dokładność symulacji vs. koszty: interesujące zachowania już w najprostszych sieciach neuronowych. Zachowanie neurofizjologicznie poprawne wymaga skomplikowanych modeli z impulsującymi neuronami.

Logika progowa Jak działa modelowy neuron? Neuron ni zbiera dochodzące do niego sygnały oj od neuronów nj obliczając sumę ważoną Wij tych sygnałów (wagi określane są przez procesy synaptyczne), tworząc z nich sumaryczny sygnał wejściowy: Sumowanie przestrzenne i czasowe potencjałów zgromadzonych na błonie komórkowej daje całkowitą aktywację elementu: Aktywacja, razem z progiem qi wzbudzenia, określa sygnał wyjściowy

Reguła Hebba (1949) „Kiedy akson komórki A jest dostatecznie blisko by pobudzić komórkę B i wielokrotnie w sposób trwały bierze udział w jej pobudzaniu, procesy wzrostu lub zmian metabolicznych zachodzą w obu komórkach tak, że sprawność neuronu A jako jednej z komórek pobudzających B, wzrasta.” Na poziomie molekularnym: LTP - Long Term Potentiation LTD - Long Term Depression E. Kandel, Nobel 2000 Czy to wystarczy? Być może.

Uczenie Plastyczność układu (uczenie się): wagi synaptyczne Wij zmieniają się powoli w czasie. Reguła uczenia Hebba (1949): Ogólna reguła uczenia się (Y - sygnał nagrody): Reguła delta albo reguła Widrowa-Hoffa, Znanych jest wiele innych reguł.

Modelowanie sieci Cel modelowania ANN: • badanie formalnych własności sieci prostych, nieliniowych elementów oddziaływujących ze sobą i wykazujących kooperatywne własności + praktyczne zastosowania takich sieci. lub • modelowanie funkcji prawdziwych neuronów, zrozumienie jak działają mózgi, zastosowania medyczne, neuropsychiatria. Schemat: przyjmijmy uproszczony model neuronu, połączmy wiele takich elementów razem i zbadajmy zachowanie się całego systemu. Dodajmy parametry, pozwalające na adaptację układu, sformułujmy regułę uczenia, czyli adaptacji parametrów. • Pierwszy krok – wybór modelu neuronu.

Neurobiologiczne podstawy Podstawowy dogmat: decydującą rolę odgrywa przewodnictwo synaptyczne. Niewiele jest na to bezpośrednich dowodów! Badania Kandela (Nobel 2000) nad ślimakami Aplysia i krabami Limulus. Pośrednie dowody: ogólny wzrost liczby i wielkości synaps w procesie uczenia się. Dokładny opis wymaga uwzględnienia: różnicy typów synaps, neurotransmiterów i neuromodulatorów, dynamiki impulsacji, lokalnych obwodów itp. Kolumna ma ~100.000 neuronów! Mikrokolumna tylko 110. Może w tym szaleństwie jest metoda? Chaotyczne mikroobwody ułatwiają analizę sygnałów (Liquid State Machines). Mózg: ~86 mld neuronów ale <10 mld w korze, czyli ~1 mln kolumn.

Możliwości ANN Badania możliwości obliczeniowych („klas uniwersalności”) algorytmów sieciowych: asymptotycznie, dla dużych sieci możliwości heteroasocjacji niemal niezależne od rodzaju neuronów, szczegółów aktywacji i transferu informacji oraz architektury sieci; szybkość uczenia się, pojemność informacyjna – silnie zależy od rodzaju zastosowanych neuronów. Są jednak klasy zadań, które wykraczają poza asocjacje, np. problem spójności grafów. Rozwiązanie za pomocą sieci synchronizujących impulsy jest możliwe, za pomocą sieci z elementami progowymi bez synchronizacji, nie da się tego rozwiązać. Wystarczy dodać 1 parametr do neuronów progowych.

Neurony progowe McCulloch, Pitts (1943-49): przetwarzanie informacji w sieciach logicznych. Sieć elementów logicznych ma moc automatu Turinga. MacCulloch i Pitts (1943): z powodu charakteru „wszystko-albo-nic” aktywności nerwowej zdarzenia neuronalne i ich relacje traktowane być mogą za pomocą logiki zdań. Model logiczny (binarny): zmiana amplitudy, czasu, kształtu impulsu nie gra roli, teoretycznie nie zwiększa mocy obliczeniowej sieci. Neurony McCullocha i Pittsa: • mogą być tylko w dwóch stanach, aktywne albo nieaktywne; • każdy neuron ma ustalony próg pobudzenia; • sygnały dochodzą przez synapsy pobudzające i hamujące; • wszystkie synapsy mają identyczny wpływ; • sygnały sumują się w pewnym kwancie czasu;

Neurony MC-P Model: • sygnały wejściowe, xi = 0, 1; • rodzaj pobudzenia Wi = ± 1 (synapsy pobudzające i hamujące); • próg wzbudzenia neuronu q > 0 Sygnał wyjściowy: ważone sumowanie w dyskretnych momentach czasu:

Sieci MC-P Po wysłaniu impulsu rzeczywisty neuron przechodzi w stan spoczynku. Sieci neuronów logicznych: najpierw zbadano procesy niezależne od czasu, potem dynamikę. Sieci logiczne z synchronizacją impulsów robią to samo, co sieci bez synchronizacji, jeśli dodamy dodatkowe neurony opóźniające. Stałą aktywność neuronów w sieciach logicznych łatwo jest zamienić na serię impulsów wprowadzając pomiędzy momentami t, t+1 pośredni moment t+1/2 czasu, w którym neurony są w spoczynku.

Sieci logiczne i biologiczne W sieciach biologicznych miarą aktywności jest częstotliwość + długość (czas trwania) serii impulsów. Podejście synchroniczne: zakładamy istnienie centralnego zegara, obliczamy w czasie t stan aktywności wszystkich neuronów jednocześnie. Podejście asynchroniczne: sumowanie impulsów w okienku czasowym, krótkim w porównaniu z szerokością impulsów (ok. 0.25 ms, czas impulsów 1 ms). Sieci logicznych neuronów mogą zrealizować dowolne funkcje logiczne. Ucząc się funkcji logicznych sieci realizują reguły w postaci M of N: IF M z N argumentów jest prawdziwych THEN konkluzja. Np.: jeśli większość jest za to zatwierdzamy propozycję; takie reguły w klasycznej formie logicznej trudno zapisać.

Separowalność Pojedynczy neuron realizuje tylko funkcje liniowo separowalne, tzn. wartości f(x)=T można oddzielić od f(x)=F za pomocą płaszczyzny. Np: funkcja f(A,B) = A.OR.B jest separowalna. Za to funkcja f(A,B) = A.XOR.B nie jest liniowo separowalna. Dodatkowe synapsy hamujące pozwalają na realizację dowolnej funkcji. Jak z funkcji sigmoidalnych utworzyć kombinację oddzielającą nieseparowalne grupy elementów? Mechanizm hamowania presynaptycznego został odkryty przez Sir Johna Ecclesa (Nobel 1963) dopiero po pracach teoretycznych! Demo w Tensorflow

XOR z warstwą ukrytą rozwiązuje XOR (c) 1999. Tralvex Yeap. All Rights Reserved

Koniec wykładu 2