Universalne Modele Uczenia - Cwiczenia

Slides:



Advertisements
Podobne prezentacje
Modelowanie i symulacja
Advertisements

Włodzisław Duch Katedra Informatyki Stosowanej,
Jarosław Kuchta Jakość Oprogramowania
Marcin Bogusiak Paweł Pilewski
Inteligencja Obliczeniowa Metody oparte na podobieństwie do wzorców.
Spektrum autyzmu: zintegrowana teoria
Inteligencja Obliczeniowa Sieci dynamiczne cd.
Inteligencja Obliczeniowa Indukcja reguł - modele.
Inteligencja Obliczeniowa Sieci RBF.
Inteligencja Obliczeniowa Otwieranie czarnej skrzynki.
Katedra Informatyki Stosowanej UMK
Katedra Informatyki Stosowanej UMK
Uczenie konkurencyjne.
Samoorganizacja: uczenie bez nadzoru.
Inteligencja Obliczeniowa Sieci dynamiczne.
Inteligencja Obliczeniowa Metody probabilistyczne.
Wykład 28 Włodzisław Duch Uniwersytet Mikołaja Kopernika
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Inteligencja Obliczeniowa Sieci o zmiennej strukturze.
Inteligencja Obliczeniowa Perceptrony
Inteligencja Obliczeniowa Feature Space Mapping.
Wykład 7 Neuropsychologia komputerowa
Wykład 5 Neuropsychologia komputerowa
Wykład 10 Neuropsychologia komputerowa
Sztuczne sieci neuronowe
Wykład 15 Neuropsychologia komputerowa
Sztuczna Inteligencja Reprezentacja wiedzy II Systemy produkcyjne Włodzisław Duch Katedra Informatyki Stosowanej UMK Google: W. Duch.
Zastosowanie pamięci semantycznej we wspomaganiu decyzji medycznych
Inteligencja Obliczeniowa Klasteryzacja i uczenie bez nadzoru.
Czy potrafimy obliczyć wartość wyjścia sieci znając wartości jej wejść? Tak, przy założeniu, że znamy aktualne wartości wag i progów dla poszczególnych.
mgr Magdalena Katarzyna Godlewska Katedra Inżynierii Wiedzy, WETI PG
mgr inż. Rafał Komański styczeń 2004
Additive Models, Trees, and Related Methods
Sieci Hopfielda.
RODZINA Jolanta Jagiełka.
Sztuczne sieci neuronowe (SSN)
Klasyfikacja dokumentów za pomocą sieci radialnych
formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych
Piotr Rybiński. 1. Wstęp 2. Opis systemu i narzędzi 3. Algorytm 4. Przykłady działania 5. Porównanie z rzeczywistym systemem rozwoju 6. Rozszerzenia systemu,
Systemy wspomagania decyzji
Temat: Eksplorator Windows - wędrówka po drzewie folderów
Wspomaganie decyzji nie zwalnia od decyzji...
Uczenie w Sieciach Rekurencyjnych
Systemy wspomagania decyzji
Modelowanie i Identyfikacja 2011/2012 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania 1 Warstwowe.
Model I/O bazujący na HSWN Problem uczenia sieci HSWN
Przedmiot: Technologia informacyjna Autor: Olga Łodyga
Sekwencje Jak modelować relacje i sekwencje słów?
Analiza mechanizmów sterowania przepływem pakietów w protokole TCP
Bazy danych, sieci i systemy komputerowe
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
Politechniki Poznańskiej
Co to jest spacer edukacyjny?
Adaptacyjne Systemy Inteligentne Maciej Bielski, s4049.
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania Modelowanie i podstawy identyfikacji 2015/2016 Modele neuronowe – podstawy,
Narzędzia AI Dominik Ślęzak, Pokój Wykład dostępny na:
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Learnmatrix, Adaline, Madaline i modele liniowe
Systemy neuronowo – rozmyte
Perceptrony o dużym marginesie błędu
Włodzisław Duch Katedra Informatyki Stosowanej,
Sieci o zmiennej strukturze
Perceptrony o dużym marginesie błędu
Systemy Ekspertowe i Sztuczna Inteligencja trudne pytania
Inteligencja Obliczeniowa Perceptrony
Katedra Informatyki Stosowanej UMK
Programowanie sieciowe Laboratorium 3
Programowanie sieciowe Laboratorium 3
Inteligencja Obliczeniowa Sieci RBF.
Perceptrony wielowarstwowe, wsteczna propagacja błędów
Zapis prezentacji:

Universalne Modele Uczenia - Cwiczenia EE141 Inteligentne Systemy Autonomiczne Universalne Modele Uczenia - Cwiczenia W oparciu o wykład Prof. Randall O'Reilly University of Colorado oraz Prof. Włodzisława Ducha Uniwersytet Mikołaja Kopernika Janusz A. Starzyk Wyższa Szkoła Informatyki i Zarządzania w Rzeszowie

Symulacje trudnego problemu EE141 Symulacje trudnego problemu Genrec.proj, ze strony http://grey.colorado.edu/CompCogNeuro/index.php/CECN1_Generec 3 ukryte jednostki. Uczenie jest przerywane po 5 epokach bez błędu. Błędy w czasie uczenia wykazują znaczne fluktuacje – sieci z rekurencją są wrażliwe na małe zmiany wag, eksplorują różne rozwiązania. Porównaj z uczeniem przypadków łatwych i trudnych z samym Hebbem.

Generalizacja w sieciach atraktorowych EE141 Generalizacja w sieciach atraktorowych Sama reguła GeneRec nie prowadzi do dobrej generalizacji. Symulacje: model_and_task.proj ze strony http://grey.colorado.edu/CompCogNeuro/index.php/CECN1_Model_And_Task Parametr hebb kontroluje ile CHL a ile Hebba. Pure_err realizuje tylko CHL, sprawdzić fazy - i + Porównać rep. wewnętrzne dla różnych rodzajów uczenia.

Drzewo rodzinne Przykład symulacji: family_trees.proj.gz, rozdz. 6.4.1 Mamy 24 osoby = agent, Patient – wyjście, czyli osoba; relation–wejście. Relacje: mąż, żona, syn, córka, ojciec, matka, brat, siostra, ciotka, wujek, kuzyn, kuzynka.

EE141 Drzewo rodzinne Przykład symulacji: family_trees.proj, ze strony http://grey.colorado.edu/CompCogNeuro/index.php/CECN1_Family_Trees Czego jeszcze brakuje? Czasu!

EE141 Realizacja sieciowa Sieć wybiera przypadkowo jeden z dwóch możliwych stanów. Ukryte/kontekstowe neurony uczą się rozpoznawać stany automatu, a nie tylko etykiety. Modelowanie zachowania: te same obserwacje ale różne stany wewnętrzne => różne decyzje i następne stany. Projekt fsa.proj ze strony http://grey.colorado.edu/CompCogNeuro/index.php/CECN1_FSA

Implementacja sieciowa EE141 Implementacja sieciowa Przewidywania aktywności jak i błędu. CS dla t=2 US dla t=16 rl_cond.proj Ze strony http://grey.colorado.edu/CompCogNeuro/index.php/CECN1_Reinforcement_Learning

Dwufazowa implementacja EE141 Dwufazowa implementacja Wejście CSC – Complete Serial Compound, zastosowano unikalne elementy do bodźców w kolejnych momentach czasu. Rozdz. 6.7.3, Projekt rl_cond.proj Ze strony http://grey.colorado.edu/CompCogNeuro/index.php/CECN1_Reinforcement_Learning Nie jest to zbyt realistyczny model warunkowania klasycznego.