Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

EE141 1 Samoorganizacja i korekcja błędów Janusz A. Starzyk Wyższa Szkoła Informatyki i Zarządzania w Rzeszowie Inteligentne Systemy Autonomiczne W oparciu.

Podobne prezentacje


Prezentacja na temat: "EE141 1 Samoorganizacja i korekcja błędów Janusz A. Starzyk Wyższa Szkoła Informatyki i Zarządzania w Rzeszowie Inteligentne Systemy Autonomiczne W oparciu."— Zapis prezentacji:

1 EE141 1 Samoorganizacja i korekcja błędów Janusz A. Starzyk Wyższa Szkoła Informatyki i Zarządzania w Rzeszowie Inteligentne Systemy Autonomiczne W oparciu o wykład Prof. Randall O'ReillyRandall O'Reilly University of Colorado oraz Prof. Włodzisława Ducha Uniwersytet Mikołaja Kopernika

2 EE141 2 Uczenie: rodzaje 1. Jak powinien wyglądać idealny system, który się uczy? 2. Jak uczy się człowiek? Detektory (neurony) mogą zmieniać lokalne parametry ale chcemy osiągnąć zmianę działania całej sieci przetwarzającej informację. Rozważymy dwa rodzaje uczenia, wymagające innych mechanizmów: Uczenie się wewnętrznego modelu środowiska (spontaniczne). Uczenie się zadania, postawionego przed siecią (nadzorowane). Połączenie jednego i drugiego.

3 EE141 3 Uczenie działań Jeden neuron wyjściowy niewiele może się nauczyć. Działanie = transformacja sensomotryczna, percepcja-działanie. Stymulacja i wybór odpowiedniego działania, interpretacji, oczekiwań, planu... Jakiego rodzaju formy uczenia pozwala to wyjaśnić? Jakie formy uczenia wymagają dodatkowych mechanizmów?

4 EE141 4 Symulacja Wybieramy self_org.proj.gz, z Rozdz neuronów ukrytych, kWTA; sieć nauczy się interesujących cech.

5 EE141 5 Mapy senso-motoryczne Samoorganizację modeluje się na wiele sposobów; proste modele pomocne są w wyjaśnieniu jakościowych cech map topograficznych. Rys za: P.S. Churchland, T.J. Sejnowski, The computational brain. MIT Press, 1992

6 EE141 6 Mapy motoryczne i somatosensoryczne To bardzo uproszczony obraz, w rzeczywistości większość neuronów jest wielomodalna, neurony w korze ruchowej reagują na bodźce czuciowe, słuchowe i wzrokowe (neurony lustrzane) - wiele wyspecjalizowanych obwodów percepcji-działania-nazywania.

7 EE141 7 Reprezentacja palców: plastyczność Ręka Twarz Przed Po stymulacji stymulacją Pola czuciowe w korze rozszerzaja sie po stymulacji – lokalne dominacje wynikajace z pobudzenia Plastycznosc obszarow kory do reprezentacji sensoryczno-motorycznych

8 EE141 8 Najprostsze modele SOM lub SOFM (Self-Organized Feature Mapping) – self-organizing feature map, jeden z najbardziej popularnych modeli. Jak mapy topograficzne mogą się utworzyć w mózgu? Lokalne połączenia neuronów tworzą grupy silnie ze sobą oddziaływujących, słabiej na większe odległości i hamujących pobliskie grupy. Historia: von der Malsburg i Willshaw (1976), uczenie konkurencyjne, Hebbowskie z potencjałem Mexican hat, głównie układ wzrokowy. Amari (1980) – modele warstwowe tkanki neuronowej. Kohonen (1981) – uproszczenie bez hamowania; tylko dwa niezbędne czynniki: konkurencja i kooperacja.

9 EE141 9 SOM: idea Dane: wektory X T = (X 1,... X d ) z d-wymiarowej przestrzeni. Siatka węzłów z lokalnymi procesorami (neuronami) w każdym węźle. Lokalny procesor # j ma d parameterów adaptacyjnych W (j). Cel: dostosuj parametry W (j) tak by modelować klastry w p-ni X.

10 EE SOM algorytm: konkurencja Węzły powinny oceniać podobieństwo danych wejściowych do ich parametrów. Wektor wejściowy X jest porównywany z parametrami węzła W. Podobieństwo = minimalna odległość lub min. iloczyn skalarny. Konkurencja: znajdź węzeł j=c którego W jest najbardziej zbliżone do X. Węzeł numer c jest najbardziej podobny do wektora wejściowego X Jest on zwycięzca i tylko on uczy się podobieństwa do X, dlatego jest to konkurencyjna procedura uczenia. Mozg: neurony które są pobudzone przez sygnał aktywizują się i uczą.

11 EE Kooperacja: węzły na siatce bliskie do węzła zwycięzcy c powinny zachować się podobnie. Zdefiniujmy funkcje sąsiedztwa O(c): t – numer iteracji (lub czas), r c – lokalizacja zwycięskiego węzła c (w przestrzeni fizycznej zwykle 2D). ||r-r c || – odległość od zwycięskiego węzła przeskalowana przez c ( t ). h 0 (t) – powoli zanikający mnożnik. Funkcja sąsiedztwa określa jak silnie parametry zwycięskiego węzła i węzły sąsiedztwa maja się zmieniać, by upodobnić się do danej wejściowej X SOM algorytm: kooperacja

12 EE Mapy i zniekształcenia Początkowe zniekształcenia mogą powoli zanikać (dobrze) albo mogą zastygnąć (zle) … dając użytkownikowi zniekształcony obraz rzeczywistości.

13 EE SOM algorytm: dynamika Zasada adaptacji: wybierz zwycięzcę c, i jego sąsiedztwo O(rc), zmień ich parametry czyniąc je bardziej podobnymi do danych X Wybierz w sposób przypadkowy nowy wektor danych X i powtórz. Zmniejszaj powoli h0(t) az nie będzie zmian wag połączeń. Rezultat: W(i) centra lokalnych klasterów w przestrzeni cech wektora X Węzły sąsiedztwa reprezentują sąsiednie rejony w przestrzeni wejściowej

14 EE Demonstracje za pomocą GNG Growing Self-Organizing Networks demo Growing Self-Organizing Networks demo Growing Self-Organizing Networks demo Growing Self-Organizing Networks demo Parametery programu SOM: t – iteracje (t) = i ( f / i ) t/tmax określa krok uczenia (t) = i ( f / i ) t/tmax określa rozmiar sąsiedztwa Mapy 1x30 pokazują formację krzywych Peano. Można spróbować odtworzyć mapy Penfielda.odtworzyć mapy Penfielda

15 EE Trenowanie SOM Fritzke algorithm Grownig Neural Gas (GNG) Demonstracje uczenia konkurencyjnego GNG w Java: Wada algorytmu GNG: kora nie wytwarza nowych neuronów u dorosłej osoby

16 EE Mapowanie kWTA CPCA Uczenie Hebbowskie tworzy relacje pomiędzy wejściem i wyjściem. Przykład: pat_assoc.proj.gz z Rozdziału 5, opisany w 5.2 Symulacje dla 3 zadań, od łatwego do niemożliwego.

17 EE Uczenie zadań Niestety uczenie Hebbowskie nie wystarczy by nauczyć się dowolnej relacji pomiędzy wejściem i wyjściem. Może to zrobić uczenie oparte na korekcji błędów. Skąd biorą się cele? Od nauczyciela, lub konfrontując z przewidywaniami modelu wewnętrznego.

18 EE Reguła Delta Idea: wagi w ik należy tak korygować by zmieniały się mocno dla dużych błędów i nie ulegały zmianie jeśli błędu nie ma, więc w ik ~ ||t k – o k || s i Zmiana jest też proporcjonalna do wielkości pobudzenia przez wejścia s i Faza + jest prezentacją celu, faza – wynikiem sieci. To jest reguła Delta.

19 EE Przypisywanie zasług Credit/blame assignment w ik = ||t k – o k || s i Błąd jest lokalny, dla wzorca k. Jeśli powstał duży błąd i wyjście o k jest znacznie mniejsze niż oczekiwane to neurony wejściowe o dużej aktywności jeszcze ją zwiększą. Jeśli wyjście o k jest znacznie większe niż oczekiwane to neurony wejściowe o dużej aktywności znacznie ją zmniejszą. Np. wejścia s i to ilość kalorii w różnym pożywieniu, wyjście to umiarkowana waga; za dużo to trzeba zmniejszyć wysokokaloryczne wagi (spożycie), za mało to trzeba zwiększyć. Reprezentacje tworzone przez proces minimalizacji błędu są wynikiem najlepszego przypisania zasług do wielu jednostek, a nie największej korelacji (jak w modelach Hebbowskich).

20 EE Nie chcemy by wagi zmieniały się bez ograniczeń i nie przyjmowały ujemnych wartości. Jest to zgodne z wymaganiami biologicznymi które separują neurony hamujące i pobudzające oraz maja ograniczenie górne wag. Poniższy mechanizm zmiany wag oparty o regule delta zapewnia spełnienie obu ograniczeń w ik = ik (1- w ik ) jesli ik >0 w ik = ik w ik jesli ik <0 gdzie ik jest zmiana wagi wynikająca z propagacji błędu Ograniczanie wag Równanie to ogranicza wartości wagi do przedziału 0-1. Ograniczenie górne uzasadnione jest biologicznie przez maksymalna ilością NT który może być wypuszczony i maksymalna gęstością synaps ik w ik waga 0 1

21 EE Uczenie zadań Chcemy: uczenie Hebbowskie i uczenie wykorzystujące korekcję błędów, jednostki ukryte i biologicznie uzasadnione modele. Kombinacja korekcji błędów i korelacji da się uzgodnić z tym co wiadomo o LTP/LTD w ij = [ x i y j + x i y j ] Hebbowskie sieci modelują stany świata ale nie percepcje-działanie. Korekcja błędu może się nauczyć mapowania. Niestety reguła delta dobra jest tylko dla jednostki wyjściowej, a nie ukrytej, bo trzeba jej podać cel. Metoda wstecznej propagacji błędu potrafi uczyć jednostki ukryte. Ale nie ma dla niej dobrego uzasadnienia biologicznego....

22 EE Symulacje Wybieramy: pat_assoc.proj.gz, z Rozdz. 5 Opis: Rozdz Reguła Delta potrafi się nauczyć trudnych odwzorowań, przynajmniej teoretycznie...


Pobierz ppt "EE141 1 Samoorganizacja i korekcja błędów Janusz A. Starzyk Wyższa Szkoła Informatyki i Zarządzania w Rzeszowie Inteligentne Systemy Autonomiczne W oparciu."

Podobne prezentacje


Reklamy Google