formalnie: Uczenie nienadzorowane

Slides:



Advertisements
Podobne prezentacje
Sieć jednokierunkowa wielowarstwowa
Advertisements

Mechanizm wnioskowania rozmytego
SIECI NEURONOWE Sztuczne sieci neuronowe są to układy elektroniczne lub optyczne, złożone z jednostek przetwarzających, zwanych neuronami, połączonych.
SZTUCZNE SIECI NEURONOWE
SZTUCZNA INTELIGENCJA ARTIFICIAL INTELLIGENCE
Inteligencja Obliczeniowa Sieci dynamiczne cd.
Katedra Informatyki Stosowanej UMK
Katedra Informatyki Stosowanej UMK
Uczenie konkurencyjne.
Samoorganizacja: uczenie bez nadzoru.
Inteligencja Obliczeniowa Sieci dynamiczne.
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Inteligencja Obliczeniowa Sieci o zmiennej strukturze.
Inteligencja Obliczeniowa Perceptrony
KNW- Wykład 8 Wnioskowanie rozmyte.
Rozpoznawanie Twarzy i Systemy Biometryczne, 2005/2006
Algorytm Rochio’a.
Inteligencja Obliczeniowa Klasteryzacja i uczenie bez nadzoru.
Czy potrafimy obliczyć wartość wyjścia sieci znając wartości jej wejść? Tak, przy założeniu, że znamy aktualne wartości wag i progów dla poszczególnych.
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania.
ALGORYTMY INSTRUKCJE WARUNKOWE Część III.
Sieci Hopfielda.
Wstęp do interpretacji algorytmów
Sieci neuronowe jednokierunkowe wielowarstwowe
Sztuczne sieci neuronowe (SSN)
Klasyfikacja dokumentów za pomocą sieci radialnych
formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych
Systemy wspomagania decyzji
Systemy wspomagania decyzji
Sztuczne Sieci Neuronowe
Systemy Wspomagania Decyzji
Wykład 25 Regulatory dyskretne
Wykład 21 Regulacja dyskretna. Modele dyskretne obiektów.
Wspomaganie decyzji nie zwalnia od decyzji...
Systemy Wspomagania Decyzji
Uczenie w Sieciach Rekurencyjnych
GŁOSOWA ŁĄCZNOŚĆ Z KOMPUTEREM
formalnie: Naiwny klasyfikator Bayesa
Systemy wspomagania decyzji
Modelowanie i Identyfikacja 2011/2012 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania 1 Warstwowe.
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
VI EKSPLORACJA DANYCH Zadania eksploracji danych: klasyfikacja
VII EKSPLORACJA DANYCH
IV EKSPLORACJA DANYCH Zadania eksploracji danych: klasyfikacja
Systemy Wspomagania Decyzji
Sieci neuronowe, falki jako przykłady metod analizy sygnałów
Warstwowe sieci jednokierunkowe – perceptrony wielowarstwowe
Metody Sztucznej Inteligencji – technologie rozmyte i neuronowe Sieci jednowarstwowe - perceptrony proste progowe  Dr hab. inż. Kazimierz Duzinkiewicz,
Wstęp do interpretacji algorytmów
Metody sztucznej inteligencji – technologie rozmyte i neuronoweReguła propagacji wstecznej  Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów.
SZTUCZNA INTELIGENCJA
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania Modelowanie i podstawy identyfikacji 2015/2016 Modele neuronowe – podstawy,
GeneracjeTechnologia Architektura przetwarzania 0. Przekaźniki elektromechaniczne 1. Lampy elektronowe 2. Tranzystory 3. Układy scalone 3.5.Układy dużej.
Formalnie: Pamięci asocjacyjne Dorota Cendrowska nieformalnie: (???) To miasto było na ‘K’... Na pewno na ‘K’! (???) Mam! To było Świnoujście...
Belief Nets Autor: inż. 2013r źródło tła:
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Learnmatrix, Adaline, Madaline i modele liniowe
Systemy neuronowo – rozmyte
formalnie: Sieci jednokierunkowe: architektura, uczenie, zastosowania
Kognitywne właściwości sieci neuronowych
Perceptrony o dużym marginesie błędu
Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe
Metody sztucznej inteligencji
Perceptrony o dużym marginesie błędu
Systemy Ekspertowe i Sztuczna Inteligencja trudne pytania
Inteligencja Obliczeniowa Perceptrony
Katedra Informatyki Stosowanej UMK
Programowanie sieciowe Laboratorium 4
Perceptrony wielowarstwowe, wsteczna propagacja błędów
Zapis prezentacji:

formalnie: Uczenie nienadzorowane Dorota Cendrowska nieformalnie: podobne do podobnych, a niepodobne gdzie?

Plan wykładu uczenie: sieć Kohonena algorytm: sieć ART sieć Fuzzy-ART nadzorowane nienadzorowane sieć Kohonena algorytm: k średnich K-centroidów sieć ART sieć Fuzzy-ART

    uczenie (?) uczenie się wiersza na pamięć, jako „przyswajanie” wiedzy teoretycznej, jako rozwijanie umiejętności wykorzystywania wiedzy posiadanej, jako umiejętność korzystania z doświadczenia (własnego i cudzego), jako umiejętność wnioskowania, jako umiejętność dostrzegania podobieństw (+generalizacja)    

inaczej uczenie z nauczyciela uczenie z nadzorem (?) inaczej uczenie z nauczyciela informacja dotycząca oczekiwanej reakcji znana „prawidłowa” odpowiedź przykłady: sieci jednokierunkowe (zagadnienia klasyfikacji, aproksymacji)

inaczej uczenie bez nauczyciela uczenie bez nadzoru (?) inaczej uczenie bez nauczyciela brak informacji zwrotnej, czy podjęta aktywność jest prawidłową reakcją, brak systemu „marchewka i kijek”, który nagradza lub karze. 5

inaczej uczenie bez nauczyciela uczenie bez nadzoru (?) inaczej uczenie bez nauczyciela brak informacji zwrotnej, czy podjęta aktywność jest prawidłową reakcją, brak systemu „marchewka i kijek”, który nagradza lub karze. idealny przykład: małe dziecko uczące się zwrotów „mało kulturalnych” idealny kontrprzykład: małe dziecko, uczące się „terroryzować” rodziców krzykiem 6

...podział sieci neuronowych powtórka z rozrywki... ...podział sieci neuronowych budowa: jednowarstwowe wielowarstwowe przepływ sygnału: jednokierunkowe ze sprzężeniem zwrotnym uczenie: z nauczycielem (nadzorowane) bez nauczyciela

„jutrzejsza” powtórka z rozrywki... ...podział sieci neuronowych budowa: jednowarstwowe wielowarstwowe przepływ sygnału: jednokierunkowe ze sprzężeniem zwrotnym uczenie: z nauczycielem (nadzorowane) bez nauczyciela 8

uczenie nienadzorowane a sieci neuronowe zastosowanie: odkrywanie podobieństw w zbiorach uczących (grupowanie danych) problemy: definicja podobieństwa, ścisłe określenie algorytmu uczenia (pomimo braku nauczyciela) sieci neuronowe: sieć Kohonena sieć rezonansowa ART sieć rezonansowa Fuzzy-ART

sieć Kohonena sieć jednowarstwowa neurony o ciągłej funkcji aktywacji interpretacja geometryczna wag zdolność grupowania danych na N grup podobieństwo zdefiniowane jako: „jak najmniejsze różnice poszczególnych składowych wejściowych w stosunku do (?)”

Uruchamianie sieci Kohonena interpretacja wag neuronu: „charakterystyczny” reprezentant grupy dane wejściowe zostają zaklasyfikowane do grupy reprezentowanej przez neuron o największej wartości wyjścia

Uruchamianie sieci Kohonena interpretacja wag neuronu: „charakterystyczny” reprezentant grupy dane wejściowe zostają zaklasyfikowane do grupy reprezentowanej przez neuron o największej wartości wyjścia 12

Uruchamianie sieci Kohonena interpretacja wag neuronu: „charakterystyczny” reprezentant grupy dane wejściowe zostają zaklasyfikowane do grupy reprezentowanej przez neuron o największej wartości wyjścia Jak teoria mijała się z prawdą 13

Wagi sieci Kohonena wymagana jest normalizacja wag:

Uczenie sieci Kohonena reguła WINNER TAKES ALL korekcie wag podlega tylko neuron „zwycięzca” korekcie wag podlega nie tylko neuron „zwycięzca”, ale również neuronów należących do sąsiedztwa

Sieć Kohonena, problemy wymagana znajomość maksymalnej liczby grup sieć „nie zna” odpowiedzi NIE WIEM każdy z obrazów wejściowych zostanie zaklasyfikowany do jednej z N grup

Sieć Kohonena, zaskakujące (?) własności Kto tak naprawdę zwycięża i skąd to się bierze?

Sieć Kohonena, zaskakujące (?) własności Kto tak naprawdę zwycięża i skąd to się bierze?

Sieć Kohonena, zaskakujące (?) własności Kto tak naprawdę zwycięża i skąd to się bierze? 19

Algorytm k średnich Grupowanie na k grup: Znajdujemy k wzajemnie najdalszych punktów. Stają się one reprezentantami k grup. Każdemu z grupowanych obiektów przypisujemy etykietę informującą o tym, do którego reprezentanta ma „najbliżej”. Uaktualniamy reprezentantów grup. Kolejne cechy stanowią średnią arytmetyczną przynależących do grupy obiektów. Kroki 2 i 3 powtarzamy dopóki modyfikowana jest przynajmniej jedna cecha dowolnego reprezentanta.

Algorytmy k-*** K-means (k-średnich): K-centroidów: start: k wzajemnie najdalszych punktów. K-centroidów: start: zbiór jest dzielony na k grup i wykonywany jest 3 krok algorytmu.

Algorytm „prawie” k-średnich (przykład) losowo wybrane współrzędne reprezentantów grup

Algorytm „prawie” k-średnich (przykład) krok 2 algorytmu

Algorytm „prawie” k-średnich (przykład) krok 3 algorytmu

Algorytm „prawie” k-średnich (przykład) po wykonaniu kroku 3 algorytmu

Algorytm „prawie” k-średnich (przykład)

Algorytm „prawie” k-średnich (przykład) krok 2 algorytmu

Algorytm „prawie” k-średnich (przykład) krok 3 algorytmu

Algorytm „prawie” k-średnich (przykład) po kroku 3 algorytmu

Dyskretna sieć ART rozdzielenie wag od reprezentanta grupy możliwość dynamicznej zmiany liczby neuronów parametr ρ „próg czujności” akceptowalny współczynnik podobieństwa obrazu wejściowego i reprezentanta grupy sygnał wejściowy dyskretny (0 lub 1)

Uruchamianie sieci ART Klasyfikacja nowych obrazów: reguła WINNER TAKES ALL dla zwycięzcy obliczany jest współczynnik podobieństwa do reprezentanta grupy zwycięskiego neuronu jeśli wartość obliczonego współczynnika jest mniejsza od akceptowalnej wartości współczynnika podobieństwa sieć „odpowiada NIE WIEM”

Uczenie dyskretnej sieci ART początkowa wartość wag neuronów i wartości składowych obrazów typowych dla zwycięskiego neuronu, który pomyślnie przeszedł test podobieństwa przeprowadzamy korektę wag i typowego obrazu:

wzór wzorem, przykład przykładem rozmiar sieci: jeden neuron (start) ustalamy =0.6 =1 test podobieństwa dla zwycięzcy (jedynego neuronu)

wzór wzorem, przykład przykładem rozmiar sieci: jeden neuron (start) ustalamy =0.6 =1 test podobieństwa dla zwycięzcy (jedynego neuronu) ?

Sieć Fuzzy-ART rozdzielenie wag od reprezentanta grupy możliwość dynamicznej zmiany liczby neuronów parametr ρ „próg czujności” sygnał wejściowy x ciągły <0,1> wejście sieci stanowi wektor X=[x,x c], gdzie dla x =[x1, ..., xk] x c =[1-x1, ..., 1-xk] zmiany!

Uczenie sieci Fuzzy-ART a uczenie ART sieć ART sieć Fuzzy-ART operator logicznej koniunkcji klasyczny operator rozmyty AND

Geometryczna interpretacja Fuzzy-ART

zamiast Paddingtona... filozoficznie: co oznacza grupowanie pojęć, danych? Przy odrobinie wysiłku można wykazać, że cokolwiek weźmiemy, wszystko się łączy — egzystencja jest pełna nie kończących się odniesień. A każda rzecz ma więcej niż jedną definicję. Kot jest ssakiem, narcyzem, towarzyszem, zagadką. Martha Cooley, Archiwista, Muza 2000