Universalne Modele Uczenia - Cwiczenia EE141 Inteligentne Systemy Autonomiczne Universalne Modele Uczenia - Cwiczenia W oparciu o wykład Prof. Randall O'Reilly University of Colorado oraz Prof. Włodzisława Ducha Uniwersytet Mikołaja Kopernika Janusz A. Starzyk Wyższa Szkoła Informatyki i Zarządzania w Rzeszowie
Symulacje trudnego problemu EE141 Symulacje trudnego problemu Genrec.proj, ze strony http://grey.colorado.edu/CompCogNeuro/index.php/CECN1_Generec 3 ukryte jednostki. Uczenie jest przerywane po 5 epokach bez błędu. Błędy w czasie uczenia wykazują znaczne fluktuacje – sieci z rekurencją są wrażliwe na małe zmiany wag, eksplorują różne rozwiązania. Porównaj z uczeniem przypadków łatwych i trudnych z samym Hebbem.
Generalizacja w sieciach atraktorowych EE141 Generalizacja w sieciach atraktorowych Sama reguła GeneRec nie prowadzi do dobrej generalizacji. Symulacje: model_and_task.proj ze strony http://grey.colorado.edu/CompCogNeuro/index.php/CECN1_Model_And_Task Parametr hebb kontroluje ile CHL a ile Hebba. Pure_err realizuje tylko CHL, sprawdzić fazy - i + Porównać rep. wewnętrzne dla różnych rodzajów uczenia.
Drzewo rodzinne Przykład symulacji: family_trees.proj.gz, rozdz. 6.4.1 Mamy 24 osoby = agent, Patient – wyjście, czyli osoba; relation–wejście. Relacje: mąż, żona, syn, córka, ojciec, matka, brat, siostra, ciotka, wujek, kuzyn, kuzynka.
EE141 Drzewo rodzinne Przykład symulacji: family_trees.proj, ze strony http://grey.colorado.edu/CompCogNeuro/index.php/CECN1_Family_Trees Czego jeszcze brakuje? Czasu!
EE141 Realizacja sieciowa Sieć wybiera przypadkowo jeden z dwóch możliwych stanów. Ukryte/kontekstowe neurony uczą się rozpoznawać stany automatu, a nie tylko etykiety. Modelowanie zachowania: te same obserwacje ale różne stany wewnętrzne => różne decyzje i następne stany. Projekt fsa.proj ze strony http://grey.colorado.edu/CompCogNeuro/index.php/CECN1_FSA
Implementacja sieciowa EE141 Implementacja sieciowa Przewidywania aktywności jak i błędu. CS dla t=2 US dla t=16 rl_cond.proj Ze strony http://grey.colorado.edu/CompCogNeuro/index.php/CECN1_Reinforcement_Learning
Dwufazowa implementacja EE141 Dwufazowa implementacja Wejście CSC – Complete Serial Compound, zastosowano unikalne elementy do bodźców w kolejnych momentach czasu. Rozdz. 6.7.3, Projekt rl_cond.proj Ze strony http://grey.colorado.edu/CompCogNeuro/index.php/CECN1_Reinforcement_Learning Nie jest to zbyt realistyczny model warunkowania klasycznego.