Sieci Hopfielda.

Slides:



Advertisements
Podobne prezentacje
Wykład 5: Dyskretna Transformata Fouriera, FFT i Algorytm Goertzela
Advertisements

Wykład 6: Dyskretna Transformata Fouriera, FFT i Algorytm Goertzela
Sieć jednokierunkowa wielowarstwowa
Mechanizm wnioskowania rozmytego
Marcin Bogusiak Paweł Pilewski
SIECI NEURONOWE Sztuczne sieci neuronowe są to układy elektroniczne lub optyczne, złożone z jednostek przetwarzających, zwanych neuronami, połączonych.
Metody rozwiązywania układów równań liniowych
SZTUCZNE SIECI NEURONOWE
SZTUCZNA INTELIGENCJA ARTIFICIAL INTELLIGENCE
Inteligencja Obliczeniowa Sieci dynamiczne cd.
Katedra Informatyki Stosowanej UMK
Katedra Informatyki Stosowanej UMK
Inteligencja Obliczeniowa Sieci dynamiczne.
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Inteligencja Obliczeniowa Sieci o zmiennej strukturze.
Inteligencja Obliczeniowa Perceptrony
Sieci pamieci skojarzeniowej
Sieci Neuronowe Wykład 5 Sieć Hopfielda
Sztuczne sieci neuronowe
Sieci Neuronowe Wykład 5 Sieć Hopfielda
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010Optymalizacja miary efektywności działania sztucznych sieci neuronowych Dr hab. inż. Kazimierz Duzinkiewicz,
Czy potrafimy obliczyć wartość wyjścia sieci znając wartości jej wejść? Tak, przy założeniu, że znamy aktualne wartości wag i progów dla poszczególnych.
Obserwowalność System ciągły System dyskretny u – wejścia y – wyjścia
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania.
mgr inż. Rafał Komański styczeń 2004
Mirosław ŚWIERCZ Politechnika Białostocka, Wydział Elektryczny
Sieci neuronowe jednokierunkowe wielowarstwowe
Sztuczne sieci neuronowe (SSN)
ALGORYTMY.
formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych
POJĘCIE ALGORYTMU Pojęcie algorytmu Etapy rozwiązywania zadań
Systemy wspomagania decyzji
Systemy wspomagania decyzji
Sztuczne Sieci Neuronowe
Opiekun: dr inż. Maciej Ławryńczuk
Komputerowe Wspomaganie w Inżynierii Materiałowej
Stabilność Stabilność to jedno z najważniejszych pojęć teorii sterowania W większości przypadków, stabilność jest warunkiem koniecznym praktycznego zastosowania.
formalnie: Uczenie nienadzorowane
Wspomaganie decyzji nie zwalnia od decyzji...
Uczenie w Sieciach Rekurencyjnych
Zakładamy a priori istnienie rozwiązania α układu równań.
Systemy wspomagania decyzji
Modelowanie i Identyfikacja 2011/2012 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania 1 Warstwowe.
Perceptrony proste liniowe - Adaline
II. Matematyczne podstawy MK
Spis treści W świecie algortmów -Budowa algorytmu
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
Systemy wspomagania decyzji
Algorytmy- Wprowadzenie do programowania
Warstwowe sieci jednokierunkowe – perceptrony wielowarstwowe
Metody sztucznej inteligencji – technologie rozmyte i neuronoweReguła propagacji wstecznej  Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów.
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania Modelowanie i podstawy identyfikacji 2015/2016 Modele neuronowe – podstawy,
Wykład 3,4 i 5: Przegląd podstawowych transformacji sygnałowych
GeneracjeTechnologia Architektura przetwarzania 0. Przekaźniki elektromechaniczne 1. Lampy elektronowe 2. Tranzystory 3. Układy scalone 3.5.Układy dużej.
Metody Inteligencji Obliczeniowej Adrian Horzyk Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii.
Sieci dynamiczne Sieci Neuronowe Wykład 16 Włodzisław Duch Uniwersytet Mikołaja Kopernika Google: W. Duch.
Algorytmy, sposoby ich zapisu.1 Algorytm to uporządkowany opis postępowania przy rozwiązywaniu problemu z uwzględnieniem opisu danych oraz opisu kolejnych.
Belief Nets Autor: inż. 2013r źródło tła:
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Systemy neuronowo – rozmyte
Teoria sterowania Wykład /2016
Kognitywne właściwości sieci neuronowych
Metody sztucznej inteligencji
Systemy Ekspertowe i Sztuczna Inteligencja trudne pytania
WZMACNIACZ MOCY.
Inteligencja Obliczeniowa Perceptrony
POJĘCIE ALGORYTMU Wstęp do informatyki Pojęcie algorytmu
Zapis prezentacji:

Sieci Hopfielda

Najprostsze modele sieci z rekurencją – sieci Hopfielda; – sieci uczone regułą Hebba; – sieć Hamminga;

Modele bardziej złożone: – RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie rzeczywistym; – sieć Elmana i inne o uproszczonej strukturze rekurencji; – RCC ( Recurrent Cascade Correlation);

Sieci rekurencyjne, a jednokierunkowe • Sieci jednokierunkowe – wyjścia sieci mogą być połączone tylko z wejściami neuronów warstwy następnej; – implikuje to jednokierunkowy przepływ informacji: sygnały są przesyłane od warstwy wejściowej do wyjściowej; • Sieci rekurencyjne – dopuszcza się istnienie sprzężeń zwrotnych tzn. gdy wyjścia neuronów mogą być połączone z wejściami neuronów tej samej warstwy lub warstw pośrednich; – informacja oscyluje między warstwami lub w obrębie warstw, aż do spełnienia pewnego kryterium zbieżności i dopiero wtedy jest przekazywana na wyjście sieci;

Rodzaje sieci Hopfielda: – sieć dyskretna - przeważnie dyskretne funkcje aktywacji , zmiana stanu w chwilach dyskretnych; – sieć ciągła - zastosowanie ciągłych funkcji aktywacji, odpowiedzi neuronów zmieniają się w sposób ciągły;

Schemat sieci Hopfielda

Wnioski ze schematu Sieć jest siecią jednowarstwową ze sprzężeniem zwrotnym, każdy neuron połączony jest bezpośrednio z wyjściami innych neuronów i nie jest połączony z własnym wyjściem, tzn. wii=0 . Neurony posiadają „znakową” funkcję aktywacji Wyznaczenie wyjścia sieci w danej iteracji obliczeniowej odbywa się w sposób synchroniczny, tzn. neurony ustawiają swoje wyjścia w jednym momencie, co powoduje, że wartości wyjść każdego neuronu wyznaczane są na podstawie wyjść sieci z poprzedniej iteracji obliczeniowej.

Inne własności sieci Hopfielda pamięć adresowalna przez zawartość - aby odtworzyć wzorzec zapisany w sieci wystarczy podać fragment informacji; - tolerancja błędów - jeżeli jakiś element popełni błąd, to cała sieć i tak poda poprawne rozwiązanie; wszystkie neurony są ze sobą połączone wagami; symetryczne wagi (wij = wji);

Algorytm działania sieci Hopfielda Wybieramy losowo neuron. Obliczamy sumę ważoną połączeń do aktywnych sąsiadów: Jeżeli suma jest dodatnia, to neuron się aktywuje, w przeciwnym przypadku dezaktywuje.

Algorytm działania sieci Hopfielda c.d. Losujemy kolejny neuron i postępujemy według algorytmu, aż do uzyskania stanu stabilnego. Proces ten nazywa się równoległą relaksacją.

Funkcja energetyczna Stan energetyczny sieci wyraża funkcja w postaci: ( przy czym i ≠ j ). Funkcja ta jest malejąca w kolejnych krokach t, dlatego wiadomo, że osiągnie ona minimum, w którym sieć będzie stabilna.

Dobór wag w sieci Hopfielda uogólnioną regułą Hebba Zgodnie z tą regułą wagi modyfikowane są według zależności: dla i ≠ j ( gdzie xi(k) jest i-tą współrzędną k-tego wzorca uczącego ). Dla i = j zachodzi wij=0.

Przykład Przykład ten jest próbą nauczenia sieci Hopfielda rozpoznawania trzech cyfr: 1, 4, 7. Na podstawie wzorców przedstawionych na poniższym rysunku tworzony jest ciąg uczący (białe pola oznaczają -1, a czarne 1). x(1)=[ -1 -1 1 -1 -1 1 -1 -1 1 -1 -1 1 ] x(2)=[ 1 -1 1 1 1 1 -1 -1 1 -1 -1 1 ] x(3)=[ 1 1 1 -1 -1 1 -1 -1 1 -1 -1 1 ]  

Przykład c.d. Następnie sieć Hopfielda jest uczona za pomocą wcześniej wypisanych wzorców. Aby sprawdzić poprawność działania nauczonej sieci, na jej wejście podajemy kolejno sygnały uczące. Sieć Hopfielda bezbłędnie rozwiązała zagadnienie asocjacji dla niezaszumionych wektorów uczących:

Przykład c.d. Po zaszumieniu wzorce uczące mają postać: Wówczas sygnały wejściowe x’ są postaci: x’(1)= [ -1 -1 1 -1 -1 1 -1 1 1 -1 -1 1 ] x’(2)= [ 1 -1 1 1 -1 1 -1 -1 1 -1 -1 1 ] x’(3)=[ 1 -1 1 -1 -1 1 -1 -1 1 -1 -1 1 ]  

Przykład c.d. Efekt zaszumienia przedstawia poniższa tabela: Dla trzeciego zaszumionego wektora wyjście sieci po 12 iteracjach jeszcze się nie ustabilizowało. Oznacza to, że sieć nie mogła rozpoznać zniekształconej próbki.

Sieci Hopfielda w praktyce Pamięć asocjacyjna (skojarzeniowa) – zdolność sieci do prawidłowego zinterpretowania danych zniekształconych lub niekompletnych (sieć taka może także usuwać zakłócenia i zniekształcenia różnych sygnałów - także wtedy, gdy stopień “zaszumienia” sygnału wejściowego wyklucza praktyczne użycie jakichkolwiek innych metod filtracji ). Optymalizacja – rozwiązywanie trudnych problemów optymalizacyjnych ( np. problem komiwojażera ).

Koniec