Sieci o zmiennej strukturze

Slides:



Advertisements
Podobne prezentacje
Katedra Informatyki Stosowanej UMK
Advertisements

Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Inteligencja Obliczeniowa Sieci o zmiennej strukturze.
Inteligencja Obliczeniowa Perceptrony
Temat 2: Podstawy programowania Algorytmy – 1 z 2 _________________________________________________________________________________________________________________.
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania Modelowanie i podstawy identyfikacji 2015/2016 Modele neuronowe – podstawy,
Proces doboru próby. Badana populacja – (zbiorowość generalna, populacja generalna) ogół rzeczywistych jednostek, o których chcemy uzyskać informacje.
Równowaga chemiczna - odwracalność reakcji chemicznych
Tworzenie odwołania zewnętrznego (łącza) do zakresu komórek w innym skoroszycie Możliwości efektywnego stosowania odwołań zewnętrznych Odwołania zewnętrzne.
Excel 2007 dla średniozaawansowanych zajęcia z dnia
MIESZACZE CZĘSTOTLIWOŚCI. Przeznaczenie – odbiorniki, nadajniki, syntezery częstotliwości Podstawowy parametr mieszacza = konduktancja (nachylenie) przemiany.
Niepewności pomiarowe. Pomiary fizyczne. Pomiar fizyczny polega na porównywaniu wielkości mierzonej z przyjętym wzorcem, czyli jednostką. Rodzaje pomiarów.
Ryzyko a stopa zwrotu. Standardowe narzędzia inwestowania Analiza fundamentalna – ocena kondycji i perspektyw rozwoju podmiotu emitującego papiery wartościowe.
Wprowadzenie Celem naszej prezentacji jest przypomnienie podstawowych informacji na temat bezpiecznego powrotu do domu i nie tylko. A więc zaczynamy…;)
WSPÓŁRZĘDNE GEOGRAFICZNE.  Aby określić położenie punktu na globusie stworzono siatkę geograficzną, która składa się z południków i równoleżników. Południk.
Zmienne losowe Zmienne losowe oznacza się dużymi literami alfabetu łacińskiego, na przykład X, Y, Z. Natomiast wartości jakie one przyjmują odpowiednio.
© Prof. Antoni Kozioł, Wydział Chemiczny Politechniki Wrocławskiej MATEMATYCZNE MODELOWANIE PROCESÓW BIOTECHNOLOGICZNYCH Prezentacja – 4 Matematyczne opracowywanie.
Algorytmy Informatyka Zakres rozszerzony
Zjawisko fotoelektryczne zewnętrzne i wewnętrzne
KOSZTY W UJĘCIU ZARZĄDCZYM. POJĘCIE KOSZTU Koszt stanowi wyrażone w pieniądzu celowe zużycie majątku trwałego i obrotowego, usług obcych, nakładów pracy.
Metody Analizy Danych Doświadczalnych Wykład 9 ”Estymacja parametryczna”
Teoria masowej obsługi Michał Suchanek Katedra Ekonomiki i Funkcjonowania Przedsiębiorstw Transportowych.
Czym jest gramofon DJ-ski?. Gramofon DJ-ski posiada suwak Pitch służący do płynnego przyspieszania bądź zwalniania obrotów talerza, na którym umieszcza.
Optymalna wielkość produkcji przedsiębiorstwa działającego w doskonałej konkurencji (analiza krótkookresowa) Przypomnijmy założenia modelu doskonałej.
Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab.
W KRAINIE CZWOROKĄTÓW.
Dorota Kwaśniewska OBRAZY OTRZYMYWA NE W SOCZEWKAC H.
Formalnie: Pamięci asocjacyjne Dorota Cendrowska nieformalnie: (???) To miasto było na ‘K’... Na pewno na ‘K’! (???) Mam! To było Świnoujście...
Dlaczego wybraliśmy zasilacz?  Chcieliśmy wykonać urządzenia, które będzie pamiątką po naszym pobycie w gimnazjum i będzie użyteczne.  Po zastanowieniu.
O PARADOKSIE BRAESSA Zbigniew Świtalski Paweł Skałecki Wydział Matematyki, Informatyki i Ekonometrii Uniwersytet Zielonogórski Zakopane 2016.
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Test analizy wariancji dla wielu średnich – klasyfikacja pojedyncza
Learnmatrix, Adaline, Madaline i modele liniowe
W kręgu matematycznych pojęć
Schematy blokowe.
Opracowanie wyników pomiaru
Od neuronow do populacji
mutacyjnego algorytmu ewolucyjnego
formalnie: Sieci jednokierunkowe: architektura, uczenie, zastosowania
Modele SEM założenia formalne
ALGORYTMY I STRUKTURY DANYCH
Podstawy automatyki I Wykład /2016
Perceptrony o dużym marginesie błędu
Wstęp do Informatyki - Wykład 3
Przewodnik Udoskonalanie listy wyników w wyszukiwarce naukowej
Katedra Informatyki Stosowanej UMK
Sztuczna Inteligencja Reprezentacja wiedzy I Logika przybliżona
Git - system kontroli wersji
Katedra Informatyki Stosowanej UMK
Podstawowe układy pracy wzmacniaczy operacyjnych
Katedra Informatyki Stosowanej UMK
Sieci o zmiennej strukturze
Perceptrony o dużym marginesie błędu
Problem Plecakowy (Problem złodzieja okradającego sklep)
Rozwój współpracy pomiędzy sektorem badawczo-naukowym a biznesem na przykładzie Projektu: GUM
Dobrobyt.
Zaskakujące decyzje Lista symptomów i chorób: C (częsta), R (Rzadka),
Doskonalenie rachunku pamięciowego u uczniów
REGRESJA WIELORAKA.
Wyrównanie sieci swobodnych
Inteligencja Obliczeniowa Perceptrony
Katedra Informatyki Stosowanej UMK
Wykład 10 Neuropsychologia komputerowa
Prawa ruchu ośrodków ciągłych c. d.
Program na dziś Wprowadzenie Logika prezentacji i artykułu
Inteligencja Obliczeniowa Sieci RBF.
Perceptrony wielowarstwowe, wsteczna propagacja błędów
dr Robert Kowalczyk, PWSZ Płock
Zapis prezentacji:

Sieci o zmiennej strukturze Wykład 14 Włodzisław Duch Katedra Informatyki Stosowanej UMK Google: W. Duch (c) 1999. Tralvex Yeap. All Rights Reserved

Co będzie Uwagi na temat MLP Sieci o zmiennej strukturze Algorytmy konstruktywistyczne Przykłady zastosowań sieci MLP (c) 1999. Tralvex Yeap. All Rights Reserved

Sieci z 1 warstwą ukrytą. H(X) sygnał z warstwy ukrytej Uczenie warstwy wyjściowej można uprościć odwracając: H(X) sygnał z warstwy ukrytej Y(X) aktywacja w. wyjściowej Mając wartości dochodzące do warstwy wyjściowej można obliczyć wartości W na wybranym zbiorze uczącym w sensie metody najmniejszych kwadratów. Można też nie uczyć warstwy wejściowej tylko użyć jej do rzutowania danych w wysokowymiarową przestrzeń (biorąc dostatecznie dużo neuronów) – znane jest to pod szumną nazwą „Extreme Learning Machines”. (c) 1999. Tralvex Yeap. All Rights Reserved

Uwagi praktyczne 1 Ile neuronów? Zwykle niewiele, zacząć od 1 i zwiększać robiąc kroswalidację; reguły heurystyczne są mało przydatne bo wszystko zależy od rozkładu danych, może jest separowalny i wystarczy 1 neuron? (c) 1999. Tralvex Yeap. All Rights Reserved

Uwagi praktyczne 2 Trudności w uczeniu? Można dodać dodatkowe wyjścia pomocnicze (hints), np. dzielące hierarchicznie na grupy kilku kategorii. Ogólnie: co ciekawego mogą wykryć pośrednie warstwy? Może warto zmienić cel uczenia? (c) 1999. Tralvex Yeap. All Rights Reserved

Uwagi praktyczne 3 System dobrze się nauczył ale słabo generalizuje? Zbyt duża złożoność sieci. Dodać regularyzację. Stosować kroswalidację do oceny błędu. Zatrzymać uczenie zanim się przetrenuje. Dane treningowe nie są reprezentatywne. (c) 1999. Tralvex Yeap. All Rights Reserved

Algorytmy konstruktywistyczne Złożoność sieci należy dopasować do złożoności danych: niezbyt prosta ale i niezbyt dopasowana – zajmuje się tym dziedzina zwana wyborem modelu. Utwórz wiele sieci; wybierz najlepszą; używaj algorytmów ewolucyjnych - ale czy warto? używaj komitetów sieci - nie marnuj modeli. Algorytmy sieciowe: upraszczające, usuwające połączenia i zbędne neurony; konstruktywne, dodające nowe zasoby w miarę potrzeb; ontogeniczne: rosnące i kurczące. (c) 1999. Tralvex Yeap. All Rights Reserved

AK: upraszczanie Zwykle: mała sieć - prosty model, dobre wyniki; duża sieć - zła generalizacja, za duża złożoność modelu. Regularyzacja: duża sieć, elastyczna, ale efektywnie ma mało swobodnych parametrów, zależnie od siły regularyzacji. 1. Utwórz dużą sieć. 2. Trenuj ją z członem regularyzującym. Metody Bayesowskie pozwalają automatycznie określić parametry regularyzacji (Bishop), ale są rzadko stosowane. Statystyczne kryteria przydatności neuronów można stosować zamiast regularyzacji. (c) 1999. Tralvex Yeap. All Rights Reserved

Korelacja kaskadowa Fahlman i Labiere, 1991 Zacznij od zera, dodawaj neurony do warstwy ukrytej. Maksymalizuj korelacje nowego neuronu i z błędem wykazywanym przez neuron wyjściowy. Dodaj kilka neuronów - kandydatów; trenuj maksymalizując korelację; wybierz najlepszy, pozostałe odrzuć. (c) 1999. Tralvex Yeap. All Rights Reserved

KK - schemat Uczenie: jakąś wersją metody BP (np. Quickprop). Po dodaniu kandydata stare neurony ukryte mają ustalone wagi wejściowe. Nowy neuron łączy się ze wszystkimi istniejącymi. CasCor 2 - minimalizuje różnicę |E(sieć)-E(kand)| (c) 1999. Tralvex Yeap. All Rights Reserved

CasPer Cascade Correlation with Progressive RPROP (1997) Architektura kaskadowa; 3 typy połączeń z różnymi szybkościami uczenia: L1, wejście kandydata z neuronów ukrytych i wejściowych; L2 wyjście kandydata do neuronów wyjściowych. L3 istniejące neurony L1>> L2>> L3 Rozpad wag + szum na wejściu. (c) 1999. Tralvex Yeap. All Rights Reserved

FlexNet Mohraz, Protzel 1996. Startuj bez warstw ukrytych. Uczyć aż błąd zacznie spadać powoli. Dodać nową jednostkę w różnych miejscach sieci. Neurony mogą być w istniejących lub nowych warstwach. (c) 1999. Tralvex Yeap. All Rights Reserved

Algorytm wieżowy Dodaj neuron tworząc nową warstwę; trenuj aż się nauczy; zamroź wagi, dodaj kolejny neuron. Zbiega się po skończonej liczbie kroków dla wypukłych danych. Każda warstw usuwa przynajmniej jeden błąd, ale generalizacja może być kiepska. Zawsze można zrobić dane wypukłe! (c) 1999. Tralvex Yeap. All Rights Reserved

Algorytm piramidowy Jeden neuron/warstwę. Dodaje połączenia pomiędzy odległymi warstwami. Uczenie - podobnie jak w algorytmie wieżowym. Używany w programie TDL (Transdimensional Learning) (c) 1999. Tralvex Yeap. All Rights Reserved

Algorytm kieszonkowy Algorytm kieszonkowy uczenia sieci (Gallant 1990) Próbuje wykorzystać sukcesy, nie tylko błędy. Stosowany do wzorców binarnych: Przypadkowa inicjalizacja wag. Przypadkowo wybieraj wektory do uczenia. Policz, po ilu wektorach N(p) pojawia się błąd, zapamiętaj ostatnie wagi W(p) w „kieszonce” dokonaj korekty W= W(p)+ DW(p). Przypadkowo wybieraj wektory do uczenia i licz, kiedy pojawi się błąd; jeśli N<N(p) to weź W=W(p) (krok wstecz) Powtarzaj aż do skutku ... Można udowodnić, że algorytm znajduje optymalne wagi. (c) 1999. Tralvex Yeap. All Rights Reserved

Algorytm kafelkowy Hierarchia warstw o malejącej liczbie neuronów (Mezard, Nadal 1989). Nowe warstwy - wierna reprezentacja, tj. R(X)R(Y) jeśli C(X) C(Y), dla wektorów binarnych. Jednostka nadrzędna trenowana jest na dużej liczbie wzorców tak, by wytworzyć możliwie najdłuższy ciąg poprawnych odpowiedzi. Jednostki pomocnicze uczą się na podzbiorach wzorców. (c) 1999. Tralvex Yeap. All Rights Reserved

Algorytm upstart Frean, 1990: neuron wyjściowy połączony z wejściowymi, wzorce są binarne. Błędne odpowiedzi typu 0 i 1. Dodaj 2 neurony, te same wejście, duże W+/-, koryguj błędy typu 0 i 1. Każdy neuron koryguje  1 błąd. Algorytm uczenia - kieszonkowy. Poprawny wynik w skończonej liczbie kroków dla wypukłych danych (każdy wektor można odseparować płaszczyzną). Binarne drzewo z perceptronem w każdym węźle, dobre wyniki. (c) 1999. Tralvex Yeap. All Rights Reserved

IncNet Incremental Network, sieć ontogeniczna, rośnie i maleje. Jedyna sieć w pełni ontogeniczna: rośnie, kruczy się, i łączy neurony. Sieć jednowarstwowa, różne f. transferu, model 1-z-N. Uczenie - w oparciu o rozszerzony filtr Kalmana, EKF (estymator błędu i parametrów modelu). Statystyczne kryteria wzrostu i kurczenia sieci. (c) 1999. Tralvex Yeap. All Rights Reserved

Onto - podsumowanie Inne sieci ontogeniczne: RAN, FSM - po RBF-ie. Zalety algorytmów ontogenicznych: automatyczna konstrukcja zwykle dobre wyniki zwykle małe sieci, niewiele połączeń zwykle duża szybkość - trenowane są pojedyncze neurony Wady: czasami mogą się przetrenować algorytmy rosnące nie gwarantują najprostszych sieci niektóre tworzą specyficzne architektury niewiele dobrych programów homogeniczne – lepiej czasem użyć różnych funkcji transferu dla neuronów ukrytych. (c) 1999. Tralvex Yeap. All Rights Reserved

Kilka zastosowań Typowe problemy: diagnoza, wykrywanie anomalii prognozowanie, aproksymacja funkcji w nD, kontrola. Dobre benchmarki: XOR, parzystość, kompresja. NETtalk (Sejnowski i Rosenberg 1987): 7 liter (wybranych z 29 znaków) tekstu w ruchomym okienku, na wyjściu kod fonemu, 7x29=203 wejścia, 80 jednostek ukrytych i 26 wyjściowych. 1024 słowa, korelacja litera/fonem, gaworzenie, po 50 epokach sieć 95% dokładności, 78% poprawnie na nowym tekście. Zastosowania przemysłowe - strona Boba Marksa. EANN - International Conference on Engineering Applications of Neural Networks (c) 1999. Tralvex Yeap. All Rights Reserved

Co dalej? Sieci RBF Sieci Hopfielda Sieci Hebbowskie i modele mózgu Samoorganizacja (c) 1999. Tralvex Yeap. All Rights Reserved

Koniec wykładu 14 (c) 1999. Tralvex Yeap. All Rights Reserved

Co było Perceptrony wielowarstwowe. Algorytm wstecznej propagacji błędów Problemy i własności wstecznej propagacji (c) 1999. Tralvex Yeap. All Rights Reserved