Uczenie w Sieciach Rekurencyjnych

Slides:



Advertisements
Podobne prezentacje
TRADYCYJNE METODY PLANOWANIA I ORGANIZACJI PROCESÓW PRODUKCYJNYCH
Advertisements

Wykład 5: Dyskretna Transformata Fouriera, FFT i Algorytm Goertzela
Sieć jednokierunkowa wielowarstwowa
DYSKRETYZACJA SYGNAŁU
SIECI NEURONOWE Sztuczne sieci neuronowe są to układy elektroniczne lub optyczne, złożone z jednostek przetwarzających, zwanych neuronami, połączonych.
SZTUCZNE SIECI NEURONOWE
SZTUCZNA INTELIGENCJA ARTIFICIAL INTELLIGENCE
Inteligencja Obliczeniowa Sieci dynamiczne cd.
Katedra Informatyki Stosowanej UMK
Katedra Informatyki Stosowanej UMK
Inteligencja Obliczeniowa Sieci dynamiczne.
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Inteligencja Obliczeniowa Sieci o zmiennej strukturze.
Inteligencja Obliczeniowa Perceptrony
o radialnych funkcjach bazowych
Sztuczne sieci neuronowe
Rozpoznawanie Twarzy i Systemy Biometryczne, 2005/2006
Czy potrafimy obliczyć wartość wyjścia sieci znając wartości jej wejść? Tak, przy założeniu, że znamy aktualne wartości wag i progów dla poszczególnych.
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania.
Magda Kusiak Karol Walędzik prof. dr hab. Jacek Mańdziuk
mgr inż. Rafał Komański styczeń 2004
Mirosław ŚWIERCZ Politechnika Białostocka, Wydział Elektryczny
Sieci Hopfielda.
Zapis informacji Dr Anna Kwiatkowska.
Sieci neuronowe jednokierunkowe wielowarstwowe
Sztuczne sieci neuronowe (SSN)
formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych
Systemy wspomagania decyzji
Sztuczne Sieci Neuronowe
Komputerowe Wspomaganie w Inżynierii Materiałowej
AUTOMATYKA i ROBOTYKA (wykład 5)
formalnie: Uczenie nienadzorowane
Wspomaganie decyzji nie zwalnia od decyzji...
Universalne Modele Uczenia - Cwiczenia
Systemy wspomagania decyzji
Modelowanie i Identyfikacja 2011/2012 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania 1 Warstwowe.
Model I/O bazujący na HSWN Problem uczenia sieci HSWN
Źródła błędów w obliczeniach numerycznych
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
Systemy wspomagania decyzji
Podstawy Techniki Cyfrowej
Sieci neuronowe, falki jako przykłady metod analizy sygnałów
WYKŁAD 3 Temat: Arytmetyka binarna 1. Arytmetyka binarna 1.1. Nadmiar
Algorytmy- Wprowadzenie do programowania
Mateusz Wawrzyniak & Michał Warzocha
Algorytm kaskadowej korelacji
Warstwowe sieci jednokierunkowe – perceptrony wielowarstwowe
Metody sztucznej inteligencji – technologie rozmyte i neuronoweReguła propagacji wstecznej  Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów.
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania Modelowanie i podstawy identyfikacji 2015/2016 Modele neuronowe – podstawy,
GeneracjeTechnologia Architektura przetwarzania 0. Przekaźniki elektromechaniczne 1. Lampy elektronowe 2. Tranzystory 3. Układy scalone 3.5.Układy dużej.
Sumator i półsumator.
Sieci dynamiczne Sieci Neuronowe Wykład 16 Włodzisław Duch Uniwersytet Mikołaja Kopernika Google: W. Duch.
Belief Nets Autor: inż. 2013r źródło tła:
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Elementy cyfrowe i układy logiczne
Modelowanie i podstawy identyfikacji
Learnmatrix, Adaline, Madaline i modele liniowe
Systemy neuronowo – rozmyte
Kognitywne właściwości sieci neuronowych
Perceptrony o dużym marginesie błędu
Wstęp do Informatyki - Wykład 6
Układy asynchroniczne
Sieci o zmiennej strukturze
Perceptrony o dużym marginesie błędu
Systemy Ekspertowe i Sztuczna Inteligencja trudne pytania
Inteligencja Obliczeniowa Perceptrony
Katedra Informatyki Stosowanej UMK
Perceptrony wielowarstwowe, wsteczna propagacja błędów
Zapis prezentacji:

Uczenie w Sieciach Rekurencyjnych Inteligentne Systemy Autonomiczne Uczenie w Sieciach Rekurencyjnych W oparciu o wykład Prof. Geoffrey Hinton University of Toronto Janusz A. Starzyk Wyższa Szkoła Informatyki i Zarządzania w Rzeszowie

Sieci rekurencyjne W układach biologicznych neurony mają silne sprzężenia zwrotne. Najprostsze modele sieci z rekurencją: sieci Hopfielda, sieci uczone regułą Hebba, sieć Hamminga. Modele bardziej złożone: RTRN - Real Time Recurrent Network, przetwarzająca sygnały w czasie rzeczywistym; sieć Elmana i inne o uproszczonej strukturze rekurencji RCC - Recurrent Cascade Correlation

Sieci rekurencyjne Jeśli połączenia tworzą skierowane obwody w grafie sieci, taka sieć jest w stanie zrobić więcej niż tylko obliczać ustalone sekwencje przekształceń nieliniowych: Może oscylować. Nadaje sie do kontroli motorów? Może zbiegać się do atraktorów punktowych. Przydatne do klasyfikacji Może zachować się chaotycznie Przydatne do poszukiwania wielu rozwiązań Ale z reguły nie jest korzystne do przetwarzania informacji. Może pamiętać rzeczy przez długi czas. Sieć ma stany wewnętrzne. Może zdecydować się na zignorowanie sygnału wejścia. Może modelować sekwencje w naturalny sposób. Nie ma potrzeby użycia elementów opóźnienia do dyskretyzacji czasowej.

Zaleta modelowania sekwencji Możemy uzyskać sygnał uczenia próbując przewidzieć następny składnik szeregu. Wydaje sie to bardziej naturalnym niż przewidywanie jednego piksela obrazu na podstawie innych. Korelacja czasowa w przeciwieństwie do korelacji przestrzennej Wykorzystanie sekwencji operacji do planowania akcji Przypisywanie nagrody za udane akcje

Równoważność miedzy wielowarstwowa siecią propagacji wprzód i siecią rekurencyjną w1 w2 czas=3 w1 w2 w3 w4 w3 w4 czas=2 w1 w2 Załóżmy że użycie każdego połączenia ma opóźnienie czasowe 1. Sieć rekurencyjna jest siecią wielowarstwową która ciągle używa te same wagi. w3 w4 czas=1 w1 w2 w3 w4 czas=0

Backpropagation w czasie Propagacja wprzód buduje stos aktywności wszystkich jednostek w każdym przedziale czasu. Propagacja wstecz zdejmuje ze stosu aktywności żeby obliczyć pochodne błędu w każdym przedziale czasu. Po propagacji wstecznej sumujemy pochodne ze wszystkich przedziałów czasowych dla każdej wagi. Jest dodatkowy irytujący problem: Musimy określić stan początkowy wszystkich nie wejściowych jednostek. Moglibyśmy propagować wstecz do tych początkowych aktywności i nauczyć się ich najlepszych wartości.

Sygnały uczenia dla sieci rekurencyjnych Możemy określić cele w różny sposób: Określamy pożądane końcowe aktywności wszystkich jednostek Określamy pożądane aktywności wszystkich jednostek w kilku ostatnich krokach czasowych Określamy pożądane aktywności podzbioru jednostek. Inne jednostki sa “ukryte” w1 w2 w3 w4 w1 w2 w3 w4 w1 w2 w3 w4

Przykład dla sieci rekurencyjnej Możemy nauczyć sieć propagacji wprzód dodawania binarnego, ale nie jest ona w stanie określić: Maksymalnej ilości cyfr w każdej liczbie. Proces zastosowany dla dużej liczby nie prowadzi do wyniku. Tak że sieć nie uczy się dobrze zadania dodawania binarnego. 11001100 jednostki ukryte 00100110 10100110

Algorytm dodawania binarnego 1 0 0 1 0 0 1 1 no carry print 1 carry print 1 0 0 0 0 1 0 0 1 1 1 1 0 0 1 1 1 no carry print 0 carry print 0 0 0 1 1 0 1 1 0 Jest to automat skończony (finite state machine FSM). Decyduje jaki jest następny stan przez analizę następnej kolumny bitów. Drukuje wynik po przejściu do następnego stanu. Postępuje od prawej do lewej obydwu wejściowych liczb binarnych.

Siec rekurencyjna dodawania binarnego Siec ma dwa neurony wejściowe i jeden wyjściowy. Siec otrzymuje dwa bity wejściowe w każdej jednostce czasu. Pożądanym wyjściem jest wyjcie dla bitów wejściowych dwie jednostki czasowe wstecz. Jedna jednostka czasu potrzebna jest do uaktualnienia warstwy ukrytej w oparciu o bity wejścia. Druga jednostka czasu potrzebna jest do obliczenia wyjścia przez jednostki ukryte. 0 0 1 1 0 1 0 0 0 1 0 0 1 1 0 1 1 0 0 0 0 0 0 1 czas

Połączenia w sieci 3 jednostki ukryte są w pełni połączone. Pozwala to na użycie aktywności warstwy ukrytej w jednym czasie do obliczenia aktywności warstwy ukrytej w czasie następnym. Jednostki wejściowe maja połączenia wprzód które pozwalają im na obliczanie aktywności warstwy ukrytej w czasie następnym. 3 w pełni połączone jednostki ukryte 0 1 1 1 . . Binarne dane wejściowe Binarne opóźnione wyjście

Czego sieć się uczy? Sieć uczy się 4 rożnych wzorców aktywności 3 jednostek ukrytych. Te wzorce odpowiadają stanom automatu skończonego (FSM). Nie mylcie neuronów z węzłami stanów w FSM. Neurony są wektorami aktywizacji. Automat może być tylko w jednym określonym stanie w danej chwili. Jednostki ukryte mogą mięć tylko jeden wektor aktywności w danej chwili. Sieć rekurencyjna może emulować FSM, ale jest ona ekspotencjalnie bardziej potężna. Sieć mająca N neuronów ukrytych ma 2N możliwych binarnych wektorów aktywności neuronów ukrytych. Jest to ważne gdy dane wejściowe mają kilka jednoczesnych oddziaływań. FSM nie może tego odpowiednio reprezentować.