Uczenie konkurencyjne. Wykład 6 Włodzisław Duch Uniwersytet Mikołaja Kopernika Google: W. Duch.

Slides:



Advertisements
Podobne prezentacje
Włodzisław Duch Katedra Informatyki Stosowanej,
Advertisements

Predykcja współrzędnych x, y bieguna ziemskiego za pomocą sztucznych sieci neuronowych Maciej Kalarus Centrum Badań Kosmicznych PAN 5 grudnia 2003r.
Inteligencja Obliczeniowa Metody oparte na podobieństwie do wzorców.
Inteligencja Obliczeniowa Sieci dynamiczne cd.
Inteligencja Obliczeniowa Otwieranie czarnej skrzynki.
Katedra Informatyki Stosowanej UMK
Katedra Informatyki Stosowanej UMK
Inteligencja Obliczeniowa Wizualizacja.
Uczenie konkurencyjne.
Samoorganizacja: uczenie bez nadzoru.
Inteligencja Obliczeniowa Sieci dynamiczne.
Inteligencja Obliczeniowa Metody probabilistyczne.
Wykład 28 Włodzisław Duch Uniwersytet Mikołaja Kopernika
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Inteligencja Obliczeniowa Sieci o zmiennej strukturze.
Inteligencja Obliczeniowa Perceptrony
Inteligencja Obliczeniowa Feature Space Mapping.
Sztuczne sieci neuronowe
Rozpoznawanie Twarzy i Systemy Biometryczne, 2005/2006
Wykład 6 Neuropsychologia komputerowa
Inteligencja Obliczeniowa Klasteryzacja i uczenie bez nadzoru.
Czy potrafimy obliczyć wartość wyjścia sieci znając wartości jej wejść? Tak, przy założeniu, że znamy aktualne wartości wag i progów dla poszczególnych.
Niepewności przypadkowe
Błądzenie przypadkowe i procesy transportu w sieciach złożonych
Krzysztof Suchecki wybrana prezentacja z konferencji ECCS'07 w Dreźnie Interacting Random Boolean Networks.
Geometria obrazu Wykład 8
Linear Methods of Classification
Cluster Analysis and Self-Organizing Maps Analiza skupień i metody SOM
Additive Models, Trees, and Related Methods
Klasyfikacja dokumentów za pomocą sieci radialnych
Systemy wspomagania decyzji
Sztuczne Sieci Neuronowe
Konstrukcja, estymacja parametrów
Elementy Rachunku Prawdopodobieństwa i Statystyki
formalnie: Uczenie nienadzorowane
Wspomaganie decyzji nie zwalnia od decyzji...
Detekcja twarzy w obrazach cyfrowych
Universalne Modele Uczenia - Cwiczenia
Systemy wspomagania decyzji
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
VI EKSPLORACJA DANYCH Zadania eksploracji danych: klasyfikacja
VII EKSPLORACJA DANYCH
Seminarium licencjackie Beata Kapuścińska
DEFINITION OF COMPOSITE PROGRAMMABLE GRAPH (CP-GRAPH)
Warstwowe sieci jednokierunkowe – perceptrony wielowarstwowe
Metody sztucznej inteligencji – technologie rozmyte i neuronoweReguła propagacji wstecznej  Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów.
Metody Inteligencji Obliczeniowej
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania Modelowanie i podstawy identyfikacji 2015/2016 Modele neuronowe – podstawy,
Metody Inteligencji Obliczeniowej Adrian Horzyk Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii.
Fundamentals of Data Analysis Lecture 12 Approximation, interpolation and extrapolation.
Belief Nets Autor: inż. 2013r źródło tła:
Uczenie konkurencyjne
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Learnmatrix, Adaline, Madaline i modele liniowe
Systemy neuronowo – rozmyte
Samoorganizacja: uczenie bez nadzoru
Kognitywne właściwości sieci neuronowych
Perceptrony o dużym marginesie błędu
Włodzisław Duch Katedra Informatyki Stosowanej,
Perceptrony o dużym marginesie błędu
Systemy Ekspertowe i Sztuczna Inteligencja trudne pytania
Wykład 6 Neuropsychologia komputerowa
Uczenie konkurencyjne
Inteligencja Obliczeniowa Perceptrony
Katedra Informatyki Stosowanej UMK
Programowanie sieciowe Laboratorium 3
Samoorganizacja: uczenie bez nadzoru
Programowanie sieciowe Laboratorium 3
Inteligencja Obliczeniowa Sieci RBF.
Perceptrony wielowarstwowe, wsteczna propagacja błędów
Zapis prezentacji:

Uczenie konkurencyjne. Wykład 6 Włodzisław Duch Uniwersytet Mikołaja Kopernika Google: W. Duch

Co było Mapy w mózgu Samoorganizacja Sieci SOM Kohonena

Co będzie Mapy ekwiprobabilistyczne Zwycięzca bierze wszystko Gaz neuronowy Demonstracje w Javie

Mapy ekwiprobabilistyczne Dla 1 wymiaru można pokazać, że uporządkowanie jest prawidłowe, ale p(W i )  p(X) 2/3 w granicy ciągłego rozkładu. Stosowanie lokalnych funkcji błędu prowadzi do p(W i )  p(X) 1/3 SOM przecenia rejony mało prawdopodobnych danych i niedocenia rejony o dużym prawdopodobieństwie. Powstają neurony bezużyteczne; jak wykorzystać całą sieć? Zasada jednakowego zniekształcenia: każdy neuron powinien mieć podobny wkład do końcowego błędu kwantyzacji (klasyfikacji). Conscience Learning (DeSieno 1988; Hecht-Nielsen 1988). f i - częstość wygrywania neuronu i, C - stała.

Maksymalizacja entropii Kwantyzator maksymalizujący entropię (MEQ): w każdym przedziale takie samo prawdopodobieństwo. Jak znaleźć optymalne przedziały by osiągnąć ekwiprobabilistyczny podział? Można to osiągnąć maksymalizując entropię:

BAR Reguła Adaptacji Granic, Boundry Adaptation Rule. Jeśli P(H i ) jest za duże (zbyt często pojawiają się wektory z tego przedziału) to wielkość przedziału należy zmniejszyć. Przedział w 1D określony jest przez wagi. Jeśli dane są z przedziału H i to W i przesuwamy w lewo (zmniejszamy przedział H i ), jeśli z H i+1 to w prawo (zmniejszamy przedział H i+1 ). Zmiany ustają gdy mamy ekwiprobabilistyczny podział:

Konstruktywny SOM Growing Cell Structures (Fritzke 1993). Początkowa topologia: k-wymiarowy sympleks (k=1, 2, 3). Dodaje się nowe neurony i usuwa stare. Algorytm SOM, ale bez zmniejszania sąsiedztwa i adaptacji dokonuje się tylko dla zwycięzcy i bezpośrednich sąsiadów. 1. Znajdź neuron-zwycięzcę c. 2. Popraw jego wagi:  W c =  s (X-W s ). 3. Popraw wagi sąsiadów  W s =  s (X-W s ). 4. Zwiększ licznik częstości  c =1, zmniejsz wszystkie  c =   c. 5. Policz zrenormalizowane częstości f i =  i /  j  j 6. Po ustalonej liczbie epok L znajdź neuron o największej częstości i wstaw pomiędzy ten neuron i najdalszego sąsiada nowy neuron tworząc lokalny sympleks; nowy wektor weź z interpolacji.

Rozwój GCS

GCS - 2 obszary Sytuacja w 3-wym. przestrzeni danych - 2 oddzielone skupienia. Sieć GCS rosnąca w dwóch wymiarach - odpowiednia topologia.

Voronoi i Delaunay Punkty granice decyzji Triangulacja danych Voronoia Delaunaya Obszary Voronoia - neuron zwycięża konkurencję. Zbiór Voronoia - zbiór wektorów wewnątrz obszaru Voronoia. Łącząc neurony, których obszary Voronoia mają wspólną krawędź otrzymujemy traingulację Delaunaya.

WTA Uczenie konkurencyjne - WTA, Winner Takes All. Nazywane też Hard Competitive Learning. Jeden zwycięzca, dane pojedynczo (on-line) lub wszystkie (batch). Mogą powstawać bezużyteczne neurony - konieczna incjalizacja zgodna z rozkładem danych. Algorytm LBG typu WTA: 1. przypadkowa inicjalizacja; 2. Powtarzaj aż ustaną zmiany: 3. pokaż wszystkie dane i znajdź zbiory Voronoia; 4. przesuń wagi neuronu do centrum obszaru Wariant LBG-U: przesuń mało użyteczne (zerowy zbiór Voronoia) neurony w lokalne minima błędu.

Gas neuronowy Wariant uczenia konkurencyjnego (Schulten i Martinez 1991) Algorytm NG typu SOM: 1. przypadkowa inicjalizacja N wektorów; t=0; 2. Wybierz przypadkowy wektor V 3. Zrób ranking wag najbliższych V; k=1..N Zastosuj regułę adaptacji: zmniejszając eksponencjalnie obszar i stałą uczenia  (t).

Włoska oliwa 572 próbki oliwy z 9 prowincji Włoch. Zmierzono poziom 8 tłuszczy w każdej próbce. Mapa SOM 20 x 20, Redukcja 8D => 2D. Dokładność klasyfikacji to około 95-97%. Przykład zastosowania SOM: Topograficzne relacje zostały zachowane. Czemu region 3 zajmuje tyle miejsca?

Demonstracje z GNG Growing Self-Organizing Networks demo Growing Self-Organizing Networks demo Parametry w programie uczenia konkurencyjnego: t – iteracje  (t) =  i (  f /  i ) t/tmax redukcja siły uczenia  (t) =  i (  f /  i ) t/tmax redukcja wielkości otoczenia Ciekawe wyniki można obserwować dla map 1x30 tworzących krzywe Peano. Również rozkłady zmieniające się w czasie są ciekawe. Warto się przyjrzeć błędom przy szybkim uczeniu.

Some examples of real-life applications Helsinki University of Technology web site has a list (2010) of > 7700 papers on SOM and its applications ! Brain research: modeling of formation of various topographical maps in motor, auditory, visual and somatotopic areas. AI and robotics: analysis of data from sensors, control of robot’s movement (motor maps), spatial orientation maps. Information retrieval and text categorization. Clusterization of genes, protein properties, chemical compounds, speech phonemes, sounds of birds and insects, astronomical objects, economical data, business and financial data.... Data compression (images and audio), information filtering. Medical and technical diagnostics.

More examples Natural language processing: linguistic analysis, parsing, learning languages, hyphenation patterns. Optimization: configuration of telephone connections, VLSI design, time series prediction, scheduling algorithms. Signal processing: adaptive filters, real-time signal analysis, radar, sonar seismic, USG, EKG, EEG and other medical signals... Image recognition and processing: segmentation, object recognition, texture recognition... Content-based retrieval: examples of WebSOM, Visier,WebSOMVisier PicSom – similarity based image retrieval.PicSom Check the links to maps for astronomical catalogs and journals!

Quality of life data WorldBank data 1992, 39 quality of life indicators. SOM map and the same colors on the world map. More examples of business applications from

SOM software A number of free programs for SOM were written. Best visualization is offered by Viscovery free viewer It can be used with free SOM_pack software from Growing Self-Organizing Networks demo (demoGNG) Growing Self-Organizing Networks demo and review paper on competitive learning. Book: T. Kohonen, Self-organizing Maps (3 rd ed, Springer 2001)

Spisek zagnieżdża się w mózgu Emocje, niepewne sytuacje zmuszają mózg do większej neuroplastyczności by zapamiętać to co nas poruszyło. Większa dostępność neurotransmiterów zwiększa szybkość uczenia i prawdopodobieństwo błędnej interpretacji. Gwałtowna zmiana, traumatyczne przeżycia, zmniejszają plastyczność „zamrażając” błędne wyobrażenia. Zapominanie szczegółów pozostawia najsilniejsze skojarzenia. Teorie i przekonania tworzą się przez skojarzenia zbioru stanów reprezentowanych przez „migawki aktywacji mózgu”, prototypy pewnych przeżyć. Teorie spiskowe powstają gdy z kilkoma błędnymi stanami mózgu zaczyna się kojarzyć wiele innych – to daje proste pozornie prawdziwe wyjaśnienia, oszczędza energię mózgu. I tak powstaje oczywista oczywistość …

Siatka pojęciowa - zmienne bodźce Punkt = obserwacja. W normalnych warunkach obserwacje są prawidłowo kojarzone. Demonstracje za pomocą programu DemoGNG.

Lekkie deformacje Typowy obraz świata odbiega nieco od rzeczywistości.

Szybkie konkluzje Za duża plastyczności zbyt szybkie „uspakajanie” systemu. Mocno zniekształcony obraz.

Szybkie konkluzje Całkiem pokręcony obraz świata, duże „dziury” i proste wyjaśnienia – klastry, „zlewy”, czarne linie łączące niezwiązane ze sobą epizody. Wszystko kojarzy się z Żydami, masonami, zamachami i innymi cudami.

Memoidy … Czyli nosiciele memplexów, które wszystko przesłaniają …

Co dalej? Learnmatrix, Adaline, Madaline i modele liniowe. Perceptrony.

Koniec wykładu 6 Dobranoc !