Formalnie: Pamięci asocjacyjne Dorota Cendrowska nieformalnie: (???) To miasto było na ‘K’... Na pewno na ‘K’! (???) Mam! To było Świnoujście...

Slides:



Advertisements
Podobne prezentacje
Sieć jednokierunkowa wielowarstwowa
Advertisements

SIECI NEURONOWE Sztuczne sieci neuronowe są to układy elektroniczne lub optyczne, złożone z jednostek przetwarzających, zwanych neuronami, połączonych.
Inteligencja Obliczeniowa Sieci dynamiczne.
Inteligencja Obliczeniowa Perceptrony
Czy potrafimy obliczyć wartość wyjścia sieci znając wartości jej wejść? Tak, przy założeniu, że znamy aktualne wartości wag i progów dla poszczególnych.
mgr inż. Rafał Komański styczeń 2004
Sieci Hopfielda.
formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych
Komputerowe Wspomaganie w Inżynierii Materiałowej
formalnie: Uczenie nienadzorowane
nieformalnie: Prawie o tym jak mierzyć zawartość cukru w cukrze...
Wspomaganie decyzji nie zwalnia od decyzji...
formalnie: Rozmyte systemy wnioskujące
formalnie: Naiwny klasyfikator Bayesa
Sieci neuronowe, falki jako przykłady metod analizy sygnałów
Metody sztucznej inteligencji – technologie rozmyte i neuronoweReguła propagacji wstecznej  Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów.
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania Modelowanie i podstawy identyfikacji 2015/2016 Modele neuronowe – podstawy,
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 1 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016.
1 Dr Galina Cariowa. 2 Legenda Iteracyjne układy kombinacyjne Sumatory binarne Sumatory - substraktory binarne Funkcje i układy arytmetyczne Układy mnożące.
Plan Czym się zajmiemy: 1.Bilans przepływów międzygałęziowych 2.Model Leontiefa.
KAZUSY – prawo spadkowe mgr M.Dziwoki. Ewa zmarła 12 grudnia 2012r. Nie pozostawiła testamentu. Jej rodzina to: a)Ojciec b)Matka (zmarła w 2008r.) c)Małoletnia.
Jak majtek Kowalski wielokąty poznawał Opracowanie: Piotr Niemczyk kl. 1e Katarzyna Romanowska 1e Gimnazjum Nr 2 w Otwocku.
Excel 2007 dla średniozaawansowanych zajęcia z dnia
Niepewności pomiarowe. Pomiary fizyczne. Pomiar fizyczny polega na porównywaniu wielkości mierzonej z przyjętym wzorcem, czyli jednostką. Rodzaje pomiarów.
Ćwiczenia Zarządzanie Ryzykiem Renata Karkowska, ćwiczenia „Zarządzanie ryzykiem” 1.
Jeśli chcesz przejść do konkretnego zagadnienia, wybierz je z listy: Dopisanie narzędzia Modyfikacja narzędzia Usunięcia narzędzia Lokalizacja domyślna.
Elementy cyfrowe i układy logiczne
Wypadkowa sił.. Bardzo często się zdarza, że na ciało działa kilka sił. Okazuje się, że można działanie tych sił zastąpić jedną, o odpowiedniej wartości.
Wprowadzenie Celem naszej prezentacji jest przypomnienie podstawowych informacji na temat bezpiecznego powrotu do domu i nie tylko. A więc zaczynamy…;)
Zmienne losowe Zmienne losowe oznacza się dużymi literami alfabetu łacińskiego, na przykład X, Y, Z. Natomiast wartości jakie one przyjmują odpowiednio.
Algorytmy Informatyka Zakres rozszerzony
KLASA VI 1. WSTĘP – Układy współrzędnych – przykłady 2. UKŁAD WSPÓŁRZĘDNYCH X-Y – definicja, rzędne, odcięte, początek układu. 3. WSPÓŁRZĘDNE PUNKTU –
Czym jest gramofon DJ-ski?. Gramofon DJ-ski posiada suwak Pitch służący do płynnego przyspieszania bądź zwalniania obrotów talerza, na którym umieszcza.
Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab.
Pewna legenda hinduska opowiada o człowieku, który każdego dnia nosił wodę do swojej wioski w dwóch ogromnych dzbanach przytroczonych do drewnianego.
Dorota Kwaśniewska OBRAZY OTRZYMYWA NE W SOCZEWKAC H.
, + - = 0,5 CZYTAJ DOKŁADNIE ZADANIA I POLECENIA. IM TRUDNIEJSZE ZADANIE, TYM BARDZIEJ WARTO JE PRZECZYTAĆ KILKA RAZY.
Paulina Frydych kl.6 b PSP1 Nowa Sól. Nie podawaj danych osobowych. Nie dawaj ludziom informacji osobistych. Może po drugiej stronie jest ktoś kto chce.
Budżetowanie kapitałowe cz. III. NIEPEWNOŚĆ senesu lago NIEPEWNOŚĆ NIEMIERZALNA senesu strice RYZYKO (niepewność mierzalna)
Modulatory częstotliwości
PORADNIK WPROWADZANIA AKCJI. OGÓLNIE: Akcja musi zostać utworzona i opublikowana co najmniej tydzień przed jej rozpoczęciem. W opisie muszą znajdować.
BANKOWOŚĆ ELEKTRONICZNA
Schematy blokowe.
WYPROWADZENIE WZORU. PRZYKŁADY.
formalnie: Sieci jednokierunkowe: architektura, uczenie, zastosowania
FIZYKA na służbie b’Rowersa ...krótki kurs.
FIZYKA na służbie b’Rowersa ...krótki kurs.
Liczby pierwsze.
Podstawy automatyki I Wykład /2016
LEKCJA BEZPIECZEŃSTWA
Wstęp do Informatyki - Wykład 3
1.
Rekrutacja do przedszkoli w Gminie Strzyżów
KLASYFIKACJA CZWOROKĄTÓW
KLASYFIKACJA i własności CZWOROKĄTÓW
Katedra Informatyki Stosowanej UMK
Uniwersytet Mikołaja Kopernika
Twierdzenia Pitagorasa - powtórzenie wiadomości
Podstawowe układy pracy wzmacniaczy operacyjnych
Intense.
Sensory i ich interfejsy
Jak zaplanować przyszłość edukacyjno-zawodową?
Dwutranzystorowe stopnie wzmacniające
Zmiany w przepisach ustawy z dnia 26 stycznia 1982 r
Sterowanie procesami ciągłymi
Implementacja rekurencji w języku Haskell
Inteligencja Obliczeniowa Perceptrony
Inteligencja Obliczeniowa Neurony logiczne
WYBRANE ZAGADNIENIA PROBABILISTYKI
Najważniejsze operacje graficzne w programie GIMP
Zapis prezentacji:

formalnie: Pamięci asocjacyjne Dorota Cendrowska nieformalnie: (???) To miasto było na ‘K’... Na pewno na ‘K’! (???) Mam! To było Świnoujście...

Plan wykładu  architektury sieci:  jednokierunkowe  ze sprzężeniem zwrotnym  pamięć autoasocjacyjna:  sieć Hopfielda  pamięć asocjacyjna:  sieć Kosko (BAM)  uczenie „sieci-pamięci” asocjacyjnych  uruchamianie sieci:  synchroniczne  asynchroniczne

sieci jednokierunkowe  architektura:  jednowarstwowa  wielowarstwowa  uczenie:  wieloetapowe  uruchamianie:  jednoetapowe

sieci ze sprzężeniem zwrotnym  architektura:  jednowarstwowa, dwuwarstwowa  uczenie/uruchamianie:  ?

Sieć Hopfielda  sieć jednowarstwowa:  ze sprzężeniem zwrotnym  sygnał wejściowy:  dyskretny: –1, 1

Sieć Hopfielda  sieć jednowarstwowa:  ze sprzężeniem zwrotnym  sygnał wejściowy:  dyskretny: –1, 1  funkcja aktywacji:

 uczenie jednoetapowe: Sieć Hopfielda — uczenie

 uczenie jednoetapowe: lub (zapis macierzowy):

Sieć Hopfielda — uczenie (przykład)  obrazy do zapamiętania w sieci:

Sieć Hopfielda — uczenie (przykład)  obrazy do zapamiętania w sieci:

Sieć Hopfielda — uczenie (przykład)  obrazy do zapamiętania w sieci:

Sieć Hopfielda — uczenie (przykład)  obrazy do zapamiętania w sieci:

Sieć Hopfielda — uczenie (przykład)  macierz wag:  symetryczna  zera na przekątnej  wagi neuronu (wiersz/kolumna)  (przykład) wagi drugiego neuronu:

Sieć Hopfielda — uczenie (przykład)  macierz wag:  symetryczna  zera na przekątnej  wagi neuronu (wiersz/kolumna)  (przykład) wagi drugiego neuronu:

Sieć Hopfielda — uruchamianie  uruchamianie wieloetapowe:  synchroniczne (?)  asynchroniczne (?)  kryterium stopu:  żaden z neuronów nie zmienia wartości swego wyjścia

Uruchamianie synchroniczne (?)  kryterium stopu:  żaden z neuronów nie zmienia wartości swego wyjścia  z którym z zapamiętanych obrazów „kojarzy się” ?

Uruchamianie synchroniczne (?)  kryterium stopu:  żaden z neuronów nie zmienia wartości swego wyjścia  z którym z zapamiętanych obrazów „kojarzy się” ?

Uruchamianie synchroniczne (?)  kryterium stopu:  żaden z neuronów nie zmienia wartości swego wyjścia  z którym z zapamiętanych obrazów „kojarzy się” ?

Uruchamianie synchroniczne (?)  kryterium stopu:  żaden z neuronów nie zmienia wartości swego wyjścia  z którym z zapamiętanych obrazów „kojarzy się” ?

Uruchamianie synchroniczne (?)  kryterium stopu:  żaden z neuronów nie zmienia wartości swego wyjścia  z którym z zapamiętanych obrazów „kojarzy się” ?

Uruchamianie synchroniczne (?)  kryterium stopu:  żaden z neuronów nie zmienia wartości swego wyjścia  z którym z zapamiętanych obrazów „kojarzy się” ?

Uruchamianie synchroniczne (NIE!)  kryterium stopu:  żaden z neuronów nie zmienia wartości swego wyjścia  z którym z zapamiętanych obrazów „kojarzy się” ? never ending story :(

Uruchamianie asynchroniczne (TAK!)  kryterium stopu:  żaden z neuronów nie zmienia wartości swego wyjścia  asynchroniczne — jeden neuron uaktualnia wartość wyjścia

Uruchamianie asynchroniczne (TAK!)  kryterium stopu:  żaden z neuronów nie zmienia wartości swego wyjścia  asynchroniczne — jeden neuron uaktualnia wartość wyjścia

Uruchamianie asynchroniczne (TAK!)  kryterium stopu:  żaden z neuronów nie zmienia wartości swego wyjścia  asynchroniczne — jeden neuron uaktualnia wartość wyjścia

Uruchamianie asynchroniczne (TAK!)  kryterium stopu:  żaden z neuronów nie zmienia wartości swego wyjścia  asynchroniczne — jeden neuron uaktualnia wartość wyjścia

Uruchamianie asynchroniczne (TAK!)  kryterium stopu:  żaden z neuronów nie zmienia wartości swego wyjścia  asynchroniczne — jeden neuron uaktualnia wartość wyjścia

Uruchamianie asynchroniczne (TAK!)  kryterium stopu:  żaden z neuronów nie zmienia wartości swego wyjścia  asynchroniczne — jeden neuron uaktualnia wartość wyjścia

Uruchamianie asynchroniczne (TAK!)  kryterium stopu:  żaden z neuronów nie zmienia wartości swego wyjścia  asynchroniczne — jeden neuron uaktualnia wartość wyjścia

Uruchamianie asynchroniczne (TAK!)  kryterium stopu:  żaden z neuronów nie zmienia wartości swego wyjścia  asynchroniczne — jeden neuron uaktualnia wartość wyjścia

Uruchamianie asynchroniczne (TAK!)  kryterium stopu:  żaden z neuronów nie zmienia wartości swego wyjścia  asynchroniczne — jeden neuron uaktualnia wartość wyjścia

Uruchamianie asynchroniczne (TAK!)  kryterium stopu:  żaden z neuronów nie zmienia wartości swego wyjścia  asynchroniczne — jeden neuron uaktualnia wartość wyjścia ?

Co „pamięta” sieć Hopfielda?  przynajmniej część obrazów intencjonalnie „zapamiętanych”  + negatywy tych obrazów  „skojarzenie”: wzorzec najbliższy wg miary Hamminga !

Co i ile „pamięta” sieć Hopfielda?  przynajmniej część obrazów intencjonalnie „zapamiętanych”  + negatywy tych obrazów  „skojarzenie”: wzorzec najbliższy wg miary Hamminga  pojemność pamięci autoasocjacyjnej: P — liczba zapamiętanych obrazów z prawdopodobieństwem bliskim jedności

Hopfield — po co pamiętać?  zastosowanie pamięci autoasocjacyjnych:  filtrowanie (odszumianie)  uzupełnianie

sieć BAM (Kosko): asocjacje  architektura:  dwuwarstwowa  uczenie jednoetapowe  uruchamianie synchroniczne  dwa tryby:  wejście: a, wyjście: b  wejście: b, wyjście: a  pojemność pamięci:

sieć BAM (Kosko): asocjacje  uczenie jednoetapowe:

sieć BAM (Kosko): asocjacje  uczenie jednoetapowe:

BAM: uczenie (przykład)  uczenie jednoetapowe:

BAM: uczenie (przykład)  uczenie jednoetapowe:

BAM: uruchamianie (przykład)  uruchamianie synchroniczne  kryterium stopu:  żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia

BAM: uruchamianie (przykład)  uruchamianie synchroniczne  kryterium stopu:  żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia

BAM: uruchamianie (przykład)  uruchamianie synchroniczne  kryterium stopu:  żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia

BAM: uruchamianie (przykład)  uruchamianie synchroniczne  kryterium stopu:  żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia

BAM: uruchamianie (przykład)  uruchamianie synchroniczne  kryterium stopu:  żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia

BAM: uruchamianie (przykład)  uruchamianie synchroniczne  kryterium stopu:  żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia

BAM: uruchamianie (przykład)  uruchamianie synchroniczne  kryterium stopu:  żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia

BAM: uruchamianie (przykład)  uruchamianie synchroniczne  kryterium stopu:  żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia

BAM: uruchamianie (przykład)  uruchamianie synchroniczne  kryterium stopu:  żaden z neuronów jednej z dwóch warstw nie zmienia wartości swego wyjścia

Sieci neuronowe (podsumowanie)  architektura:  jednowarstowe/wielowarstwowe  z/bez sprzężenia zwrotnego  uczenie z/bez nauczyciela  zastosowania:  klasyfikacja  aproksymacja  filtrowanie (auto/heteroasocjacja)  grupowanie (detekcja regularności)

jak zwykle, zamiast zakończenia...  filozoficznie: fragment okładki i książki pt. „Paddington daje sobie radę” (autor: Michael Bond) — Wie pani — powiedział do pani Bird, gdy przyszła do jadalni, by sprawdzić, czy już zjadł grzankę z marmoladą — nigdy dotąd nie zrobiłem wszystkiego, bo gdybym zrobił, to nie czekałyby mnie już żadne niespodzianki.