Wykład 6 Neuropsychologia komputerowa

Slides:



Advertisements
Podobne prezentacje
Włodzisław Duch Katedra Informatyki Stosowanej,
Advertisements

HERD BEHAVIOR AND AGGREGATE FLUCTUATIONS IN FINANCIAL MARKETS Rama Cont & Jean-Philipe Bouchaud. Macroeconomic Dynamics, 4, 2000, Cambridge University.
Sieć jednokierunkowa wielowarstwowa
SIECI NEURONOWE Sztuczne sieci neuronowe są to układy elektroniczne lub optyczne, złożone z jednostek przetwarzających, zwanych neuronami, połączonych.
Inteligencja Obliczeniowa Metody oparte na podobieństwie do wzorców.
Inteligencja Obliczeniowa Sieci dynamiczne cd.
Inteligencja Obliczeniowa Otwieranie czarnej skrzynki.
Katedra Informatyki Stosowanej UMK
Katedra Informatyki Stosowanej UMK
Uczenie konkurencyjne.
Samoorganizacja: uczenie bez nadzoru.
Inteligencja Obliczeniowa Sieci dynamiczne.
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Inteligencja Obliczeniowa Sieci o zmiennej strukturze.
Inteligencja Obliczeniowa Perceptrony
Wykład 7 Neuropsychologia komputerowa
Wykład 5 Neuropsychologia komputerowa
Wykład 10 Neuropsychologia komputerowa
Wykład 3 Neuropsychologia komputerowa
Sztuczne sieci neuronowe
CLUSTERING Metody grupowania danych Plan wykładu Wprowadzenie Dziedziny zastosowania Co to jest problem klastrowania? Problem wyszukiwania optymalnych.
Nieelitystyczne algorytmy ewolucyjnej optymalizacji wielokryterialnej
Ulepszenia metody Eigenfaces
Czy potrafimy obliczyć wartość wyjścia sieci znając wartości jej wejść? Tak, przy założeniu, że znamy aktualne wartości wag i progów dla poszczególnych.
Obserwowalność System ciągły System dyskretny u – wejścia y – wyjścia
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania.
Krzysztof Suchecki wybrana prezentacja z konferencji ECCS'07 w Dreźnie Interacting Random Boolean Networks.
Mirosław ŚWIERCZ Politechnika Białostocka, Wydział Elektryczny
Sieci Hopfielda.
SPRZĘŻENIE ZWROTNE.
Sztuczne sieci neuronowe (SSN)
formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych
Sztuczne Sieci Neuronowe
formalnie: Uczenie nienadzorowane
Wspomaganie decyzji nie zwalnia od decyzji...
Detekcja twarzy w obrazach cyfrowych
Uczenie w Sieciach Rekurencyjnych
Universalne Modele Uczenia - Cwiczenia
Systemy wspomagania decyzji
Modelowanie i Identyfikacja 2011/2012 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania 1 Warstwowe.
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
Algorytm kaskadowej korelacji
DEFINITION OF COMPOSITE PROGRAMMABLE GRAPH (CP-GRAPH)
Warstwowe sieci jednokierunkowe – perceptrony wielowarstwowe
Metody sztucznej inteligencji – technologie rozmyte i neuronoweReguła propagacji wstecznej  Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów.
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania Modelowanie i podstawy identyfikacji 2015/2016 Modele neuronowe – podstawy,
GeneracjeTechnologia Architektura przetwarzania 0. Przekaźniki elektromechaniczne 1. Lampy elektronowe 2. Tranzystory 3. Układy scalone 3.5.Układy dużej.
Metody Inteligencji Obliczeniowej Adrian Horzyk Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii.
TOPOLOGIE SIECI. Topologia sieci- określa sposób połączenia urządzeń sieciowych ze sobą. Najbardziej znane topologie:  Topologia magistrali  Topologia.
Belief Nets Autor: inż. 2013r źródło tła:
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Wykorzystanie algorytmu Text Mining do analizy przyjmowanych przez rodziców celów wychowawczych Agnieszka Szymańska.
Learnmatrix, Adaline, Madaline i modele liniowe
Systemy neuronowo – rozmyte
Samoorganizacja: uczenie bez nadzoru
Kognitywne właściwości sieci neuronowych
Perceptrony o dużym marginesie błędu
Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe
Włodzisław Duch Katedra Informatyki Stosowanej,
Sieci o zmiennej strukturze
Perceptrony o dużym marginesie błędu
Systemy Ekspertowe i Sztuczna Inteligencja trudne pytania
Wykład 6 Neuropsychologia komputerowa
Inteligencja Obliczeniowa Perceptrony
Katedra Informatyki Stosowanej UMK
Samoorganizacja: uczenie bez nadzoru
Inteligencja Obliczeniowa Sieci RBF.
Perceptrony wielowarstwowe, wsteczna propagacja błędów
Zapis prezentacji:

Wykład 6 Neuropsychologia komputerowa Uczenie II Samoorganizacja i korekcja błędów Włodzisław Duch UMK Toruń Google: W Duch (c) 1999. Tralvex Yeap. All Rights Reserved

Uczenie: rodzaje Jak powinien wyglądać idealny system, który się uczy? Jak uczy się człowiek? Detektory (neurony) mogą zmieniać lokalne parametry ale chcemy osiągnąć zmianę działania całej sieci przetwarzającej informację. Rozważymy dwa rodzaje uczenia, wymagające innych mechanizmów: Uczenie się wewnętrznego modelu środowiska (spontaniczne). Uczenie się zadania, postawionego przed siecią (nadzorowane). Połączenie jednego i drugiego. (c) 1999. Tralvex Yeap. All Rights Reserved

Uczenie działań Jeden neuron wyjściowy niewiele może się nauczyć. Działanie = transformacja sensomotryczna, percepcja-działanie. Stymulacja i wybór odpowiedniego działania, interpretacji, oczekiwań, planu ... Jakiego rodzaju formy uczenia pozwala to wyjaśnić? Jakie formy uczenia wymagają dodatkowych mechanizmów? (c) 1999. Tralvex Yeap. All Rights Reserved

Symulacja Wybieramy Self_org.proj z Ch4. Na siatce 5x5 mamy albo jedną linię poziomą lub pionową (10 wzorców), albo kombinację dwóch linii (45 wzorców). Korelacja pomiędzy wszystkimi pikselami dla całej bazy wzorców da jednakową wartość. Uczenie jest możliwe tylko dla poszczególnych linii. Cud: reguła Hebba + kWTA wystarcza by sieć nauczyła się tworzyć prawidłowe reprezentacje wewnętrzne! (c) 1999. Tralvex Yeap. All Rights Reserved

Symulacja 4x5 = 20 neuronów ukrytych, kWTA. Po nauczeniu (ok. 30 epok prezentacji wszystkich par linii), pojawiają się jednostki selektywnie działające dla pojedynczych linii, a więc tylko 2 dla dwóch, kombinatoryczna reprezentacja! Początkowe reakcje jednostek na wzorce są przypadkowe, ale zwycięzca się szybko wzmacnia. Zostaje trochę (5) nieaktywnych jednostek, potrzebnych do nauczenia się nowych wzorców. Jest samoorganizacja, nie ma jednak reprezentacji topograficznej, bo sąsiednie jednostki reagują na całkiem inne cechy. Dodatkowe okienko: ile unikalnych wzorców wewnętrznych dla pojedynczych linii: 10 to znaczy, że wszystkie prawidłowe. (c) 1999. Tralvex Yeap. All Rights Reserved

Mapy senso-motoryczne Samoorganizację modeluje się na wiele sposobów; proste modele pomocne są w wyjaśnieniu jakościowych cech map topograficznych. Rys za: P.S. Churchland, T.J. Sejnowski, The computational brain. MIT Press, 1992 (c) 1999. Tralvex Yeap. All Rights Reserved

Mapy motoryczne i somatosensoryczne To bardzo uproszczony obraz, w rzeczywistości większość neuronów jest wielomodalna, neurony w korze ruchowej reagują na bodźce czuciowe, słuchowe i wzrokowe (neurony lustrzane), wiele wyspecjalizowanych obwodów percepcji-działania-nazywania. (c) 1999. Tralvex Yeap. All Rights Reserved

Reprezentacja palców: plastyczność Przed Po stymulacji stymulacją Ręka Twarz (c) 1999. Tralvex Yeap. All Rights Reserved

Najprostsze modele SOM lub SOFM (Self-Organized Feature Mapping) – self-organizing feature map, jeden z najbardziej popularnych modeli. Jak mapy topograficzne mogą się utworzyć w mózgu? Lokalne połączenia neuronów tworzą grupy silnie ze sobą oddziaływujących, słabiej na większe odległości i hamujących pobliskie grupy. Historia: von der Malsburg i Willshaw (1976), uczenie konkurencyjne, Hebbowskie z potencjałem „Mexican hat”, głównie układ wzrokowy. Amari (1980) – modele warstwowe tkanki neuronowej. Kohonen (1981) – uproszczenie bez hamowania; tylko dwa niezbędne czynniki: konkurencja i kooperacja. (c) 1999. Tralvex Yeap. All Rights Reserved

SOM: idea Dane: wektory XT = (X1, ... Xd) z d-wymiarowej przestrzeni. Siatka węzłów z lokalnymi procesorami (neuronami) w każdym węźle. Lokalny procesor # j ma d parameterów adaptacyjnych W(j). Cel: dostosuj parametry W(j) tak by modelować klastry w p-ni X. (c) 1999. Tralvex Yeap. All Rights Reserved

Trenowanie SOM Demonstracje uczenia konkurencyjnego w Java: http://www.neuroinformatik.ruhr-uni-bochum.de/ ini/VDM/research/gsn/DemoGNG/GNG.html (c) 1999. Tralvex Yeap. All Rights Reserved

SOM algorithm: competition Nodes should calculate similarity of input data to their parameters. Input vector X is compared to node parameters W. Similar = minimal distance or maximal scalar product. Competition: find node j=c with W most similar to X. Node number c is most similar to the input vector X It is a winner, and it will learn to be more similar to X, hence this is a “competitive learning” procedure. Brain: those neurons that react to some signals pick it up and learn. (c) 1999. Tralvex Yeap. All Rights Reserved

SOM algorithm: cooperation Cooperation: nodes on a grid close to the winner c should behave similarly. Define the “neighborhood function” O(c): t – iteration number (or time); rc – position of the winning node c (in physical space, usually 2D). ||r-rc|| – distance from the winning node, scaled by sc(t). h0(t) – slowly decreasing multiplicative factor The neighborhood function determines how strongly the parameters of the winning node and nodes in its neighborhood will be changed, making them more similar to data X (c) 1999. Tralvex Yeap. All Rights Reserved

SOM algorithm: dynamics Adaptation rule: take the winner node c, and those in its neighborhood O(rc), change their parameters making them more similar to the data X Select randomly new sample vector X, and repeat. Decrease h0(t) slowly until there will be no changes. Result: W(i) ≈ the center of local clusters in the X feature space Nodes in the neighborhood point to adjacent areas in X space (c) 1999. Tralvex Yeap. All Rights Reserved

Mapy i zniekształcenia Initial distortions may slowly disappear or may get frozen ... giving the user a completely distorted view of reality. (c) 1999. Tralvex Yeap. All Rights Reserved

Demonstracje za pomocą GNG Growing Self-Organizing Networks demo Parametery programu SOM: t – iteracje e(t) = ei (ef / ei )t/tmax określa krok uczenia s(t) = si (sf / si )t/tmax określa rozmiar sąsiedztwa Mapy 1x30 pokazują formację krzywych Peano. Można spróbować odtworzyć mapy Penfielda. (c) 1999. Tralvex Yeap. All Rights Reserved

Mapowanie kWTA CPCA Niestety uczenie Hebbowskie nie wystarczy by nauczyć się dowolnej relacji pomiędzy wejściem i wyjściem. Przykład z Rozdziału 5, opisany w 5.2. Ch5, pat_assoc.proj Symulacje dla 3 zadań, od łatwego do niemożliwego, bo wszystkie korelacje <xiyj> są identyczne. Takie zadanie jest nieseparowalne. (c) 1999. Tralvex Yeap. All Rights Reserved

Uczenie zadań Z takim zadaniem nie mamy trudności, a uczenie Hebbowskie nie wystarczy by się go nauczyć; nie można się nauczyć dowolnej relacji pomiędzy wejściem i wyjściem. Może to zrobić uczenie oparte na korekcji błędów. Skąd bierze się cele? Od „nauczyciela”, lub konfrontując z przewidywaniami modelu wewnętrznego. jawny sygnał wyjściowy i jego korekta (typowe); wewnętrzne oczekiwanie i korekta; oczekiwania rezultatów ruchu rekonstrukcja wewnętrzna Niezgodność modalności (c) 1999. Tralvex Yeap. All Rights Reserved

Reguła Delta Idea: wagi wik należy tak korygować by zmieniały się mocno dla dużych błędów i nie ulegały zmianie jeśli błędu nie ma, więc Dwik ~ ||tk – ok|| si Zmiana wagi jest proporcjonalna do wielkości pobudzenia przez wejścia si Faza + jest prezentacją celu, faza – wynikiem sieci. To jest reguła Delta. Oczekiwania mają się zrównać z generowanymi sygnałami. (c) 1999. Tralvex Yeap. All Rights Reserved

Przypisywanie zasług Credit/blame assignment Dwik =e ||tk – ok|| si Błąd jest lokalny, dla wzorca k. Jeśli powstał duży błąd i wyjście ok jest znacznie mniejsze niż oczekiwane to neurony wejściowe o dużej aktywności jeszcze ją zwiększą. Jeśli wyjście ok jest znacznie większe niż oczekiwane to neurony wejściowe o dużej aktywności znacznie ją zmniejszą. Np. wejścia si to ilość kalorii w różnym pożywieniu, wyjście to umiarkowana waga; za dużo to trzeba zmniejszyć wysokokaloryczne wagi (spożycie), za mało to trzeba zwiększyć. Reprezentacje tworzone przez proces minimalizacji błędu są wynikiem najlepszego przypisania zasług do wielu jednostek, a nie największej korelacji (jak w modelach Hebbowskich). (c) 1999. Tralvex Yeap. All Rights Reserved

Uczenie zadań Chcemy: uczenie Hebbowskie i uczenie wykorzystujące korekcję błędów, jednostki ukryte i biologicznie uzasadnione modele. Kombinacja korekcji błędów i korelacji da się uzgodnić z tym co wiadomo o LTP/LTD Dwij = e [  xi yj  + -  xi yj  - ] Hebbowskie sieci modelują stany świata ale nie percepcje-działanie. Korekcja błędu może się nauczyć mapowania stanów na działania. Niestety reguła delta dobra jest tylko dla jednostki wyjściowej, a nie ukrytej, bo trzeba jej podać cel. Metoda wstecznej propagacji błędu potrafi uczyć jednostki ukryte. Ale nie ma dla niej dobrego uzasadnienia biologicznego ... . (c) 1999. Tralvex Yeap. All Rights Reserved

Symulacje Wybieramy z Ch5 pat_assoc.proj, Opis: Rozdz. 5. 5 Reguła Delta potrafi się nauczyć trudnych odwzorowań, przynajmniej teoretycznie ... Na początku jest CPCA; można sprawdzić, że żadne parametry nie pomagają; ale po przełączeniu na Delta też się nie udaje ... Co robić? Trzeba się nauczyć propagacji błędów. (c) 1999. Tralvex Yeap. All Rights Reserved