formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych

Slides:



Advertisements
Podobne prezentacje
System oceny ryzyka zawału serca
Advertisements

o radialnych funkcjach bazowych
Sieć jednokierunkowa wielowarstwowa
Predykcja współrzędnych x, y bieguna ziemskiego za pomocą sztucznych sieci neuronowych Maciej Kalarus Centrum Badań Kosmicznych PAN 5 grudnia 2003r.
SIECI NEURONOWE Sztuczne sieci neuronowe są to układy elektroniczne lub optyczne, złożone z jednostek przetwarzających, zwanych neuronami, połączonych.
SZTUCZNE SIECI NEURONOWE
SZTUCZNA INTELIGENCJA ARTIFICIAL INTELLIGENCE
Inteligencja Obliczeniowa Otwieranie czarnej skrzynki.
Katedra Informatyki Stosowanej UMK
Inteligencja Obliczeniowa Sieci dynamiczne.
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Inteligencja Obliczeniowa Perceptrony
SIECI NEURONOWE Wykład III.
o radialnych funkcjach bazowych
Sieci neuronowe - architektury i zastosowania
Sztuczne sieci neuronowe
Sztuczne sieci neuronowe w doświadczeniach nad fizyką spinową w CERN
Czy potrafimy obliczyć wartość wyjścia sieci znając wartości jej wejść? Tak, przy założeniu, że znamy aktualne wartości wag i progów dla poszczególnych.
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania.
mgr inż. Rafał Komański styczeń 2004
Mirosław ŚWIERCZ Politechnika Białostocka, Wydział Elektryczny
Sieci Hopfielda.
Sieci neuronowe jednokierunkowe wielowarstwowe
Sztuczne sieci neuronowe (SSN)
Zastosowanie technologii CUDA w sztucznej inteligencji
Klasyfikacja dokumentów za pomocą sieci radialnych
Systemy wspomagania decyzji
Sztuczne Sieci Neuronowe
Systemy Wspomagania Decyzji
formalnie: Uczenie nienadzorowane
Wspomaganie decyzji nie zwalnia od decyzji...
Systemy Wspomagania Decyzji
Uczenie w Sieciach Rekurencyjnych
Systemy wspomagania decyzji
Modelowanie i Identyfikacja 2011/2012 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania 1 Warstwowe.
Wstęp do kognitywistyki OBLICZENIA NEUROPODOBNE. Bez reguł
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
Systemy wspomagania decyzji
Systemy Wspomagania Decyzji
Do technik tych zalicza się: * sztuczne sieci neuronowe
Sieci neuronowe, falki jako przykłady metod analizy sygnałów
Algorytm kaskadowej korelacji
Sztuczne sieci neuronowe
Warstwowe sieci jednokierunkowe – perceptrony wielowarstwowe
Metody Sztucznej Inteligencji – technologie rozmyte i neuronowe Sieci jednowarstwowe - perceptrony proste progowe  Dr hab. inż. Kazimierz Duzinkiewicz,
Metody sztucznej inteligencji – technologie rozmyte i neuronoweReguła propagacji wstecznej  Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów.
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA
METODY PROGNOZOWANIA SPRZEDAŻY W PRZEDSIĘBIORSTWIE Opole 2006 Politechnika Opolska Instytut Inżynierii Produkcji Dr inż. Łukasz MACH.
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania Modelowanie i podstawy identyfikacji 2015/2016 Modele neuronowe – podstawy,
Narzędzia AI Dominik Ślęzak, Pokój Wykład dostępny na:
GeneracjeTechnologia Architektura przetwarzania 0. Przekaźniki elektromechaniczne 1. Lampy elektronowe 2. Tranzystory 3. Układy scalone 3.5.Układy dużej.
Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab.
Formalnie: Pamięci asocjacyjne Dorota Cendrowska nieformalnie: (???) To miasto było na ‘K’... Na pewno na ‘K’! (???) Mam! To było Świnoujście...
Belief Nets Autor: inż. 2013r źródło tła:
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Learnmatrix, Adaline, Madaline i modele liniowe
Systemy neuronowo – rozmyte
formalnie: Sieci jednokierunkowe: architektura, uczenie, zastosowania
Kognitywne właściwości sieci neuronowych
Perceptrony o dużym marginesie błędu
Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe
Perceptrony o dużym marginesie błędu
Systemy Ekspertowe i Sztuczna Inteligencja trudne pytania
Inteligencja Obliczeniowa Perceptrony
Katedra Informatyki Stosowanej UMK
Programowanie sieciowe Laboratorium 3
Programowanie sieciowe Laboratorium 4
Programowanie sieciowe Laboratorium 3
Perceptrony wielowarstwowe, wsteczna propagacja błędów
Zapis prezentacji:

formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych Dorota Cendrowska nieformalnie: Od czegoś trzeba zacząć...

Plan wykładu „siedlisko” inteligencji ludzkiej matematyczny model neuronu interpretacja parametrów neuronu perceptron/neuron (?) sieci jednokierunkowe vs perceptron zastosowania sieci jednokierunkowych testowanie sieci jednokierunkowych

„ Inspiracje neuron biologiczny Błona komórkowa aksonu i ciała neuronu zawiera kanały jonowe bramkowane elektrycznie (bramkowane potencjałem), które pozwalają neuronowi na generowanie i propagację (przesyłanie) impulsu elektrycznego (potencjał aktywacyjny). Te impulsy są wytwarzane i przesyłane przez jony obdarzone ładunkiem takie jak sód (Na+), potas (K+), chlor (Cl-) oraz wapń (Ca2+).

Model neuronu wejścia

Model neuronu wejścia NET

Model neuronu wejścia NET funkcja aktywacji wartość wyjścia

Funkcje aktywacji dyskretne ?

Funkcje aktywacji dyskretne (unipolarne)

Funkcje aktywacji dyskretne (bipolarne)

Neuron neuronowi (nie)równy schemat neuronu: alternatywnie (literatura):

Jeden neuron, wiele schematów (?)

Jeden neuron, wiele schematów (?)

Jeden neuron, wiele schematów (?)

Jeden neuron, wiele schematów (?)

Jeden neuron, wiele schematów (?)

Alternatywy cd.... sztuczny neuron w literaturze schemat neuronu w piśmiennictwie: L. Rutkowski, Metody i techniki sztucznej inteligencji

Alternatywy cd.... sztuczny neuron w literaturze schemat neuronu w piśmiennictwie: St. Osowski, Sieci neuronowe w ujęciu algorytmicznym

Alternatywy cd.... sztuczny neuron w literaturze schemat neuronu w piśmiennictwie: J. Korbicz, A. Obuchowicz, D. Uciński Sztuczne sieci neuronowe, podstawy i zastosowania

Funkcje aktywacji ciągłe unipolarne — sigmoidalne ciągłe bipolarne — tangensoidalne

Funkcje aktywacji ciągłe sigmoidalne

Funkcje aktywacji ciągłe sigmoidalne

Funkcje aktywacji ciągłe sigmoidalne ?

Funkcje aktywacji ciągłe sigmoidalne ciągłe tangensoidalne

Interpretacja geometryczna

Interpretacja geometryczna

Interpretacja geometryczna

Interpretacja geometryczna x2 x1

Interpretacja geometryczna [w1, w2] [-3, 1] [-3, 1]

Interpretacja geometryczna

Interpretacja geometryczna ?

Interpretacja geometryczna

Dychotomizator: „ręczna robota” ?

Dychotomizator: „ręczna robota” ?

Dychotomizator: „ręczna robota” ? [-5, 2]

Dychotomizator: „ręczna robota” [w1, w2]=[-2, -5] [w1, w2]=[2, 5] [-5, 2]

Dychotomizator: „ręczna robota” [w1, w2]=[-2, -5] [w1, w2]=[2, 5]

Perceptron… perceptron: neuron o dyskretnej funkcji aktywacji zastosowanie: klasyfikacja zdolność do uogólniania (?)

Perceptron… perceptron: neuron o dyskretnej funkcji aktywacji zastosowanie: klasyfikacja zdolność do uogólniania (?)

sieć jednokierunkowa jednowarstwowa wejście: warstwa przetwarzająca wyjście:

Przetwarzanie... wejście: warstwa przetwarzająca wyjście:

Przetwarzanie... wejście: warstwa przetwarzająca wyjście:

Przetwarzanie... wejście: warstwa przetwarzająca wyjście:

Uczenie… wzorzec uczący: zbiór uczący:

Uczenie… wzorzec uczący: otrzymane wyjście: korekta wag*: * metoda perceptronowa lub metoda delty

Neuron (perceptron) i klasyfikacja zdolność do uogólniania (?)

Neuron (perceptron) i klasyfikacja zdolność do uogólniania (?)

Nieoczekiwany kłopot... Minsky i Papert (1969): udowodnili ograniczone możliwości sieci jednowarstwowych (perceptronów)

sieć jednokierunkowa wielowarstwowa wejście: przynajmniej jedna warstwa ukryta: warstwa wyjściowa wyjście:

Przetwarzanie... wejście: przynajmniej jedna warstwa ukryta: warstwa wyjściowa wyjście:

Przetwarzanie... wejście: przynajmniej jedna warstwa ukryta: warstwa wyjściowa wyjście:

Przetwarzanie... wejście: przynajmniej jedna warstwa ukryta: warstwa wyjściowa wyjście:

Przetwarzanie... wejście: przynajmniej jedna warstwa ukryta: warstwa wyjściowa wyjście:

Uczenie… wzorzec uczący: otrzymane wyjście: korekta wag (???): ?

Uczenie… korekta wag**: ** metoda propagacji wstecznej lub uogólniona metoda delty

Uczenie… korekta wag**: ** metoda propagacji wstecznej lub uogólniona metoda delty

Uczenie… warstwa wyjściowa:

Uczenie… warstwa wyjściowa:

Uczenie… warstwa wyjściowa:

Uczenie… warstwa wyjściowa:

Uczenie… warstwa wyjściowa:

Uczenie… warstwa wyjściowa:

Uczenie… warstwa wyjściowa:

Uczenie… warstwa wyjściowa:

Uczenie… warstwa wyjściowa:

Uczenie… warstwa wyjściowa:

Uczenie… warstwa wyjściowa:

Uczenie… warstwa wyjściowa:

Uczenie… warstwa wyjściowa:

Uczenie… warstwa wyjściowa:

Uczenie… warstwa wyjściowa:

Uczenie… warstwa wyjściowa:

Uczenie… warstwa ukryta:

Uczenie… warstwa ukryta:

Uczenie… warstwa ukryta:

Uczenie… warstwa ukryta:

Uczenie… warstwa ukryta:

Uczenie… warstwa ukryta:

Uczenie… warstwa ukryta:

Uczenie… warstwa ukryta:

Uczenie… warstwa ukryta:

Uczenie… warstwa ukryta:

Uczenie… warstwa ukryta:

Uczenie… warstwa ukryta:

Uczenie… warstwa ukryta:

Uczenie… warstwa ukryta:

Uczenie… warstwa ukryta:

Uczenie… warstwa ukryta:

Uczenie… warstwa ukryta:

Uczenie… warstwa ukryta:

Uczenie… warstwa ukryta:

Uczenie… warstwa ukryta:

Uczenie… warstwa ukryta:

Uczenie… warstwa ukryta: warstwa wyjściowa*: * metoda propagacji wstecznej lub uogólniona metoda delty

Uczenie… warstwa ukryta: warstwa wyjściowa*: * metoda propagacji wstecznej lub uogólniona metoda delty

Policzyć nieznane… znanym korekta wag*: * metoda perceptronowa lub metoda delty

Na ciut chłopski... rozum

Na ciut chłopski... rozum

Na ciut chłopski... rozum

Na ciut chłopski... rozum

Na ciut chłopski... rozum

Na ciut chłopski... rozum

Na ciut chłopski... rozum

Na ciut chłopski... rozum

Na ciut chłopski... rozum

Na ciut chłopski... rozum

Na ciut chłopski... rozum

Na ciut chłopski... rozum

Uczenie sieci wielowarstwowej po ludzku… korekta wag**: ** metoda propagacji wstecznej lub uogólniona metoda delty

Uczenie sieci wielowarstwowej po ludzku… korekta wag**: errori dla w. wyjściowej P :

Uczenie sieci wielowarstwowej po ludzku… korekta wag**: errori dla w. wyjściowej P : errori dla w. ukrytej p :

Uczenie sieci wielowarstwowej po ludzku… korekta wag**: errori dla w. wyjściowej P : errori dla w. ukrytej p :

Uczenie sieci wielowarstwowej po ludzku… obliczanie błędów korekta wag**: errori dla w. wyjściowej P : errori dla w. ukrytej p :

Uczenie sieci wielowarstwowej po ludzku… obliczanie błędów korekta wag**: errori dla w. wyjściowej P : errori dla w. ukrytej p : korekta wag

X f’(NET) ? Konsekwencje! f’(NET) dla funkcji aktywacji funkcja ciągła unipolarna: funkcja ciągła bipolarna: funkcje dyskretne: X

Sieci jednokierunkowe Zastosowania: klasyfikatory aproksymatory Z twierdzenia Kołmogorowa: Sieci wielowarstwowe (minimum dwuwarstwowe) potrafią modelować — dowolnie dokładnie przybliżać — dowolne ciągłe funkcje rzeczywiste o wartościach z odcinka [0, 1].

Uwagi dotyczące uczenia terminy: zbiór uczący zbiór testujący jedna epoka

Uwagi dotyczące uczenia terminy: zbiór uczący zbiór testujący jedna epoka tryby uczenia: metoda on-line metoda batch-owa.

Uwagi dotyczące uczenia przyśpieszenie metody propagacji wstecznej przy zachowaniu stabilności (technika momentum):

Testowanie Zbiór danych (N wierszy)

Testowanie Zbiór danych (N wierszy) Metody testowania: Losowy podział zbioru danych na zbiór uczący i testowy

Testowanie Zbiór danych (N wierszy) Metody testowania: Losowy podział zbioru danych na zbiór uczący i testowy Walidacja krzyżowa (cross validation) [k-cv]

Testowanie Zbiór danych (N wierszy) Metody testowania: Losowy podział zbioru danych na zbiór uczący i testowy Walidacja krzyżowa (cross validation) [k-cv] Leave-one-out [N-cv]

Jednokierunkowe sieci neuronowe (podsumowanie) systemy adaptacyjne: sieć uczy się na podstawie przykładów sieć nie rozwiązuje zadanie według znanego algorytmu, bo ten nie jest znany realizują przetwarzanie nieliniowe mają własność generalizacji muszą być traktowane jako systemy typu black-box