Uczenie konkurencyjne

Slides:



Advertisements
Podobne prezentacje
Katedra Informatyki Stosowanej UMK
Advertisements

Uczenie konkurencyjne.
Samoorganizacja: uczenie bez nadzoru.
Proces doboru próby. Badana populacja – (zbiorowość generalna, populacja generalna) ogół rzeczywistych jednostek, o których chcemy uzyskać informacje.
W tej prezentacji dowiecie się dlaczego i w jaki sposób papierosy, alkohol oraz narkotyki szkodzą zdrowiu i jak to zwalczać. Postaram się odpowiedzieć.
Równowaga chemiczna - odwracalność reakcji chemicznych
ŚRODOWISKO PONAD WSZYSTKO Mała bateria-duży problem.. Co roku w Polsce sprzedaje się około 300 mln baterii. Wyrzucanie ich do kosza negatywnie wpływa.
Mirek Ostrowski, Radio Wrocław SA Radio hybrydowe wprowadzenie.
OPERATORZY LOGISTYCZNI 3 PL I 4PL NA TLE RYNKU TSL Prof. zw.dr hab. Włodzimierz Rydzkowski Uniwersytet Gdańsk, Katedra Polityki Transportowej.
Niepewności pomiarowe. Pomiary fizyczne. Pomiar fizyczny polega na porównywaniu wielkości mierzonej z przyjętym wzorcem, czyli jednostką. Rodzaje pomiarów.
Ćwiczenia Zarządzanie Ryzykiem Renata Karkowska, ćwiczenia „Zarządzanie ryzykiem” 1.
Przemiany energii w ruchu harmonicznym. Rezonans mechaniczny Wyk. Agata Niezgoda Projekt współfinansowany przez Unię Europejską w ramach Europejskiego.
 Czasem pracy jest czas, w którym pracownik pozostaje w dyspozycji pracodawcy w zakładzie pracy lub w innym miejscu wyznaczonym do wykonywania pracy.
Podstawowe pojęcia termodynamiki chemicznej -Układ i otoczenie, składniki otoczenia -Podział układów, fazy układu, parametry stanu układu, funkcja stanu,
Wypadkowa sił.. Bardzo często się zdarza, że na ciało działa kilka sił. Okazuje się, że można działanie tych sił zastąpić jedną, o odpowiedniej wartości.
Zmienne losowe Zmienne losowe oznacza się dużymi literami alfabetu łacińskiego, na przykład X, Y, Z. Natomiast wartości jakie one przyjmują odpowiednio.
MOTYWACJA. Słowo motywacja składa się z dwóch części: Motyw i Akcja. Aby podjąć działanie (akcję), trzeba mieć do tego odpowiednie motywy. Łaciński źródłosłów.
… przemy ś lenia pedagogiczne. „Najważniejszym okresem w życiu nie są lata studiowania na wyższej uczelni, ale te najwcześniejsze, czyli okres od narodzenia.
© Prof. Antoni Kozioł, Wydział Chemiczny Politechniki Wrocławskiej MATEMATYCZNE MODELOWANIE PROCESÓW BIOTECHNOLOGICZNYCH Prezentacja – 4 Matematyczne opracowywanie.
Uczenie konkurencyjne. Wykład 6 Włodzisław Duch Uniwersytet Mikołaja Kopernika Google: W. Duch.
Standardy de facto zapisu georeferencji map o postaci rastrowej definicja georeferencji standard „World File” standard GeoTIFF.
KOSZTY W UJĘCIU ZARZĄDCZYM. POJĘCIE KOSZTU Koszt stanowi wyrażone w pieniądzu celowe zużycie majątku trwałego i obrotowego, usług obcych, nakładów pracy.
Metody Analizy Danych Doświadczalnych Wykład 9 ”Estymacja parametryczna”
Analiza spektralna. Laser i jego zastosowanie.
Budżet rodzinny Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego.
Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab.
INSTYTUCJE GOSPODRKI RYNKOWEJ Jerzy Wilkin i Dominika Milczarek Wykład 1 Wiedza o instytucjach w nauczaniu ekonomii.
O PARADOKSIE BRAESSA Zbigniew Świtalski Paweł Skałecki Wydział Matematyki, Informatyki i Ekonometrii Uniwersytet Zielonogórski Zakopane 2016.
Uczenie konkurencyjne
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Learnmatrix, Adaline, Madaline i modele liniowe
Od neuronow do populacji
mutacyjnego algorytmu ewolucyjnego
terminologia, skale pomiarowe, przykłady
Samoorganizacja: uczenie bez nadzoru
„Prawa Ceteris Paribus i socjo-ekonomiczne mechanizmy”
ALGORYTMY I STRUKTURY DANYCH
Podstawy automatyki I Wykład /2016
Funkcja – definicja i przykłady
Perceptrony o dużym marginesie błędu
Wstęp do Informatyki - Wykład 3
Wstęp do Informatyki - Wykład 8
Sieci o zmiennej strukturze
KOREKTOR RÓWNOLEGŁY DLA UKŁADÓW Z NIEMINIMALNOFAZOWYMI OBIEKTAMI Ryszard Gessing Instytut Automatyki, Politechnika Śląska Plan referatu Wprowadzenie.
Elementy fizyki kwantowej i budowy materii
Katedra Informatyki Stosowanej UMK
Własności statystyczne regresji liniowej
Perceptrony o dużym marginesie błędu
Dobrobyt.
ALGORYTMY I STRUKTURY DANYCH
Porównywanie średnich prób o rozkładach normalnych (testy t-studenta)
ALGORYTMY I STRUKTURY DANYCH
MATEMATYKAAKYTAMETAM
FORMUŁOWANIE HIPOTEZ STATYSTYCZNYCH
Zaskakujące decyzje Lista symptomów i chorób: C (częsta), R (Rzadka),
Implementacja rekurencji w języku Haskell
Doskonalenie rachunku pamięciowego u uczniów
REGRESJA WIELORAKA.
Inteligencja Obliczeniowa Perceptrony
Katedra Informatyki Stosowanej UMK
Prawa ruchu ośrodków ciągłych c. d.
Samoorganizacja: uczenie bez nadzoru
Program na dziś Wprowadzenie Logika prezentacji i artykułu
WYBRANE ZAGADNIENIA PROBABILISTYKI
Elipsy błędów.
Własności asymptotyczne metody najmniejszych kwadratów
dr Robert Kowalczyk, PWSZ Płock
Zapis prezentacji:

Uczenie konkurencyjne Wykład 6 Włodzisław Duch Uniwersytet Mikołaja Kopernika Google: W. Duch (c) 1999. Tralvex Yeap. All Rights Reserved

Co było Mapy topograficzne w mózgu Samoorganizacja Sieci SOM Kohonena (c) 1999. Tralvex Yeap. All Rights Reserved

Co będzie Mapy ekwiprobabilistyczne Zwycięzca bierze wszystko Gaz neuronowy Demonstracje w Jawie (c) 1999. Tralvex Yeap. All Rights Reserved

Mapy ekwiprobabilistyczne Zasada jednakowego zniekształcenia: każdy neuron powinien mieć podobny wkład do końcowego błędu kwantyzacji (klasyfikacji). Dla 1 wymiaru można pokazać, że uporządkowanie jest prawidłowe, ale p(Wi)  p(X)2/3 w granicy ciągłego rozkładu. Stosowanie lokalnych funkcji błędu prowadzi do p(Wi)  p(X)1/3 SOM przecenia rejony mało prawdopodobnych danych i niedocenia rejony o dużym prawdopodobieństwie. Powstają neurony bezużyteczne; jak wykorzystać całą sieć? Conscience Learning (DeSieno 1988; Hecht-Nielsen 1988). fi - częstość wygrywania neuronu i, C - stała. (c) 1999. Tralvex Yeap. All Rights Reserved

Maksymalizacja entropii Kwantyzator maksymalizujący entropię (MEQ): w każdym przedziale takie samo prawdopodobieństwo. Można to osiągnąć maksymalizując entropię dla przedziałów: Jak znaleźć optymalne przedziały Hi by osiągnąć podział ekwiprobabilistyczny? (c) 1999. Tralvex Yeap. All Rights Reserved

BAR Reguła Adaptacji Granic, Boundry Adaptation Rule. Jeśli P(Hi) jest za duże (zbyt często pojawiają się wektory z tego przedziału) to wielkość przedziału należy zmniejszyć. Przedział w 1D określony jest przez wagi. Jeśli dane są z przedziału Hi to Wi przesuwamy w lewo (zmniejszamy przedział Hi), jeśli z Hi+1 to w prawo (zmniejszamy przedział Hi+1). Zmiany ustają gdy mamy ekwiprobabilistyczny podział: (c) 1999. Tralvex Yeap. All Rights Reserved

Konstruktywny SOM Growing Cell Structures (Fritzke 1993). Początkowa topologia: k-wymiarowy sympleks (k=1, 2, 3). Dodaje się nowe neurony i usuwa stare. Algorytm SOM, ale bez zmniejszania sąsiedztwa i adaptacji dokonuje się tylko dla zwycięzcy i bezpośrednich sąsiadów. Znajdź neuron-zwycięzcę c. Popraw jego wagi: DWc=hs(X-Ws). Popraw wagi sąsiadów DWs=hs(X-Ws). Zwiększ licznik częstości Dtc=1, zmniejsz wszystkie Dtc=-a tc. Policz zrenormalizowane częstości fi = ti/Sjtj Po ustalonej liczbie epok L znajdź neuron o największej częstości fi i wstaw pomiędzy ten neuron i najdalszego sąsiada nowy neuron tworząc lokalny sympleks; nowy wektor dla tego neuronu weź z interpolacji użytej pary. (c) 1999. Tralvex Yeap. All Rights Reserved

Rozwój GCS (c) 1999. Tralvex Yeap. All Rights Reserved

GCS - 2 obszary Sytuacja w 3-wym. przestrzeni danych - 2 oddzielone skupienia. Sieć GCS rosnąca w dwóch wymiarach - odpowiednia topologia. (c) 1999. Tralvex Yeap. All Rights Reserved

Voronoi i Delaunay Punkty granice decyzji Triangulacja danych Voronoia Delaunaya Obszary Voronoia - neuron zwycięża konkurencję. Zbiór Voronoia - zbiór wektorów wewnątrz obszaru Voronoia. Łącząc neurony, których obszary Voronoia mają wspólną krawędź otrzymujemy traingulację Delaunaya. (c) 1999. Tralvex Yeap. All Rights Reserved

WTA Algorytm LBG typu WTA: Uczenie konkurencyjne - WTA, Winner Takes All. Nazywane też Hard Competitive Learning. Jeden zwycięzca, dane pojedynczo (on-line) lub wszystkie (batch). Mogą powstawać bezużyteczne neurony - konieczna incjalizacja zgodna z rozkładem danych. Algorytm LBG typu WTA: przypadkowa inicjalizacja; Powtarzaj aż ustaną zmiany: pokaż wszystkie dane i znajdź zbiory Voronoia; przesuń wagi neuronu do centrum obszaru Wariant LBG-U: przesuń mało użyteczne (zerowy zbiór Voronoia) neurony w lokalne minima błędu. (c) 1999. Tralvex Yeap. All Rights Reserved

Gas neuronowy Wariant uczenia konkurencyjnego (Schulten i Martinez 1991) Algorytm NG typu SOM: przypadkowa inicjalizacja N wektorów; t=0; Wybierz przypadkowy wektor V Zrób ranking wag najbliższych V; k=1..N Zastosuj regułę adaptacji: zmniejszając eksponencjalnie obszar l i stałą uczenia e(t). (c) 1999. Tralvex Yeap. All Rights Reserved

Demonstracje z GNG Growing Self-Organizing Networks demo Parametry w programie uczenia konkurencyjnego: t – iteracje e(t) = ei (ef / ei )t/tmax redukcja siły uczenia s(t) = si (sf / si )t/tmax redukcja wielkości otoczenia Ciekawe są wyniki dla map 1x30 tworzących krzywe Peano. Rozkłady zmieniające się w czasie są ciekawe. Warto się przyjrzeć błędom powstającym przy zbyt szybkim uczeniu. (c) 1999. Tralvex Yeap. All Rights Reserved

Przykłady zastosowania SOM Helsinki University of Technology web site http://www.cis.hut.fi/research/refs/ has a list (2010) of > 7700 papers on SOM and its applications ! Brain research: modeling of formation of various topographical maps in motor, auditory, visual and somatotopic areas. AI and robotics: analysis of data from sensors, control of robot’s movement (motor maps), spatial orientation maps. Information retrieval and text categorization. Clusterization of genes, protein properties, chemical compounds, speech phonemes, sounds of birds and insects, astronomical objects, economical data, business and financial data .... Data compression (images and audio), information filtering. Medical and technical diagnostics. (c) 1999. Tralvex Yeap. All Rights Reserved

Więcej przykładów Natural language processing: linguistic analysis, parsing, learning languages, hyphenation patterns Optimization: configuration of telephone connections, VLSI design, time series prediction, scheduling algorithms. Signal processing: adaptive filters, real-time signal analysis, radar, sonar seismic, USG, EKG, EEG and other medical signals ... Image recognition and processing: segmentation, object recognition, texture recognition ... Content-based retrieval: examples of WebSOM, PicSom – similarity based image retrieval, RGB and textures. Viscovery SOMine, komercyjny program do wizualizacji, eksploracji, klasyfikacji, prognozowania oparty na SOM. (c) 1999. Tralvex Yeap. All Rights Reserved

(c) 1999. Tralvex Yeap. All Rights Reserved

Quality of life data WorldBank data 1992, 39 quality of life indicators. SOM map and the same colors on the world map. More examples of business applications from http://www.eudaptics.com/ (c) 1999. Tralvex Yeap. All Rights Reserved

SOM software Jest kilka darmowych implementacji SOM. Najlepsze wizualizacje ma Viscovery free viewer http://www.eudaptics.com Można go było używać z darmowym SOM_pack z http://www.cis.hut.fi/research/som_lvq_pak.shtml Growing Self-Organizing Networks demo (demoGNG) i praca przeglądowa na temat uczenia konkurencyjnego. Książka: T. Kohonen, Self-organizing Maps (3rd ed, Springer 2001) (c) 1999. Tralvex Yeap. All Rights Reserved

Spisek zagnieżdża się w mózgu Dlaczego ludzie wierzą w teorie spiskowe? Emocje, niepewne sytuacje zmuszają mózg do większej neuroplastyczności by zapamiętać to co nas poruszyło. Większa dostępność neurotransmiterów zwiększa szybkość uczenia i prawdopodobieństwo błędnej interpretacji. Gwałtowna zmiana, traumatyczne przeżycia, zmniejszają plastyczność „zamrażając” błędne wyobrażenia. Zapominanie szczegółów pozostawia najsilniejsze skojarzenia. Teorie i przekonania tworzą się przez skojarzenia zbioru stanów reprezentowanych przez „migawki aktywacji mózgu”, prototypy pewnych przeżyć. Teorie spiskowe powstają gdy z kilkoma błędnymi stanami mózgu zaczyna się kojarzyć wiele innych – to daje proste pozornie prawdziwe wyjaśnienia, oszczędza energię mózgu. I tak powstaje oczywista oczywistość …

Siatka pojęciowa - zmienne bodźce Punkt = obserwacja. W normalnych warunkach obserwacje są prawidłowo kojarzone. Demonstracje za pomocą programu DemoGNG.

Lekkie deformacje Typowy obraz świata odbiega nieco od rzeczywistości.

Szybkie konkluzje Za duża plastyczności zbyt szybkie „uspakajanie” systemu. Mocno zniekształcony obraz.

Szybkie konkluzje Całkiem pokręcony obraz świata, duże „dziury” i proste wyjaśnienia – klastry, „zlewy”, czarne linie łączące niezwiązane ze sobą epizody. Wszystko kojarzy się z Żydami, masonami, zamachami i innymi cudami.

Memoidy … Czyli nosiciele memplexów, które wszystko przesłaniają …

Co dalej? Wizualizacja SOM. Skalowanie Wielowymiarowe. Learnmatrix, Adaline, Madaline i modele liniowe. Perceptrony. (c) 1999. Tralvex Yeap. All Rights Reserved

Koniec wykładu 6 Dobranoc ! (c) 1999. Tralvex Yeap. All Rights Reserved