Belief Nets Autor: inż. 2013r. źródło tła: http://speculativeheresy.files.wordpress.com/2008/08/space.jpg.

Slides:



Advertisements
Podobne prezentacje
Sieć jednokierunkowa wielowarstwowa
Advertisements

Predykcja współrzędnych x, y bieguna ziemskiego za pomocą sztucznych sieci neuronowych Maciej Kalarus Centrum Badań Kosmicznych PAN 5 grudnia 2003r.
SIECI NEURONOWE Sztuczne sieci neuronowe są to układy elektroniczne lub optyczne, złożone z jednostek przetwarzających, zwanych neuronami, połączonych.
SZTUCZNE SIECI NEURONOWE
SZTUCZNA INTELIGENCJA ARTIFICIAL INTELLIGENCE
Inteligencja Obliczeniowa Sieci dynamiczne cd.
Inteligencja Obliczeniowa Otwieranie czarnej skrzynki.
Katedra Informatyki Stosowanej UMK
Katedra Informatyki Stosowanej UMK
Samoorganizacja: uczenie bez nadzoru.
Inteligencja Obliczeniowa Sieci dynamiczne.
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Inteligencja Obliczeniowa Sieci o zmiennej strukturze.
Inteligencja Obliczeniowa Perceptrony
SIECI NEURONOWE Wykład III.
o radialnych funkcjach bazowych
Sieci neuronowe - architektury i zastosowania
Sztuczne sieci neuronowe
Sztuczne sieci neuronowe w doświadczeniach nad fizyką spinową w CERN
Rozpoznawanie Twarzy i Systemy Biometryczne, 2005/2006
Czy potrafimy obliczyć wartość wyjścia sieci znając wartości jej wejść? Tak, przy założeniu, że znamy aktualne wartości wag i progów dla poszczególnych.
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania.
Magda Kusiak Karol Walędzik prof. dr hab. Jacek Mańdziuk
Mirosław ŚWIERCZ Politechnika Białostocka, Wydział Elektryczny
Sieci Hopfielda.
Sieci neuronowe jednokierunkowe wielowarstwowe
Sztuczne sieci neuronowe (SSN)
Typy systemów informacyjnych
Zastosowanie technologii CUDA w sztucznej inteligencji
Klasyfikacja dokumentów za pomocą sieci radialnych
formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych
Systemy wspomagania decyzji
Sztuczne Sieci Neuronowe
Systemy Wspomagania Decyzji
formalnie: Uczenie nienadzorowane
Wspomaganie decyzji nie zwalnia od decyzji...
Uczenie w Sieciach Rekurencyjnych
Sztuczna Inteligencja
Systemy wspomagania decyzji
Modelowanie i Identyfikacja 2011/2012 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania 1 Warstwowe.
Model I/O bazujący na HSWN Problem uczenia sieci HSWN
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
Instytut Zarządzania – Państwowa Wyższa Szkoła Zawodowa
Do technik tych zalicza się: * sztuczne sieci neuronowe
Sieci neuronowe, falki jako przykłady metod analizy sygnałów
Algorytm kaskadowej korelacji
4 lipca 2015 godz pok września 2015 godz pok. 212.
Sztuczne sieci neuronowe
Warstwowe sieci jednokierunkowe – perceptrony wielowarstwowe
Metody Sztucznej Inteligencji – technologie rozmyte i neuronowe Sieci jednowarstwowe - perceptrony proste progowe  Dr hab. inż. Kazimierz Duzinkiewicz,
Metody sztucznej inteligencji – technologie rozmyte i neuronoweReguła propagacji wstecznej  Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów.
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA
METODY PROGNOZOWANIA SPRZEDAŻY W PRZEDSIĘBIORSTWIE Opole 2006 Politechnika Opolska Instytut Inżynierii Produkcji Dr inż. Łukasz MACH.
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania Modelowanie i podstawy identyfikacji 2015/2016 Modele neuronowe – podstawy,
Narzędzia AI Dominik Ślęzak, Pokój Wykład dostępny na:
GeneracjeTechnologia Architektura przetwarzania 0. Przekaźniki elektromechaniczne 1. Lampy elektronowe 2. Tranzystory 3. Układy scalone 3.5.Układy dużej.
Machine learning Lecture 6
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Wykorzystanie algorytmu Text Mining do analizy przyjmowanych przez rodziców celów wychowawczych Agnieszka Szymańska.
Systemy neuronowo – rozmyte
Kognitywne właściwości sieci neuronowych
Perceptrony o dużym marginesie błędu
Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe
Perceptrony o dużym marginesie błędu
Systemy Ekspertowe i Sztuczna Inteligencja trudne pytania
Inteligencja Obliczeniowa Perceptrony
Programowanie sieciowe Laboratorium 4
Programowanie sieciowe Laboratorium 3
Perceptrony wielowarstwowe, wsteczna propagacja błędów
Zapis prezentacji:

Belief Nets Autor: inż. 2013r. źródło tła: http://speculativeheresy.files.wordpress.com/2008/08/space.jpg

źródło: http://www.cs.cmu.edu/~15381/ Plan prezentacji sieć neuronowa trochę historii matematyka nauka prosty neuron belief nets idea możliwości problemy źródło: http://www.cs.cmu.edu/~15381/ 2/

Sieć neuronowa 3/

Sieć neuronowa - historia Pawłow odruch warunkowy 1904 Ramon y Oajal opis struktury sieci nerwowej 1906 Einthoven rejestracja biopotencjałów tkanek 1924 Hodgikin i Iluxley model propagacji sygnału w aksonie 1963 4/

Sieć neuronowa - biologia Jądro centrum obliczeniowe Dendryty wejścia neuronu Synapsy furta wejściowa wzmacniacz wejść wstępna modyfikacja Wzgórek aksonu wyjście Akson połączenia do kolejnych neuronów źródło: http://home.agh.edu.pl/~vlsi/AI/wstep/ 5/

Sieć neuronowa - matematyka wejścia – dendryty wagi – synapsy blok sumujący – jądro blok aktywacji – wzgórek aksonu wyjście - akson źródło: http://home.agh.edu.pl/~vlsi/AI/wstep/ zależnie funkcji f(ϕ) różne przebiegi wyjścia neuronu źródło: http://home.agh.edu.pl/~vlsi/AI/wstep/ 6/

Sieć neuronowa - struktura sieci jednokierunkowe jedna warstwa wiele warstw sieci rekurencyjne sieci komórkowe źródło: http://pl.wikipedia.org/wiki/Sie%C4%87_neuronowa źródło: http://home.agh.edu.pl/~vlsi/AI/wstep/ źródło: http://home.agh.edu.pl/~vlsi/AI/wstep/ 7/

Sieci neuronowe - nauka bez uczenia się sieć jest bezużyteczna idea nauki typy nauki nadzorowane z nauczycielem wektory wejściowe i pożądane wektory wyjściowe zadanie systemu to nauczenie się funkcji najlepiej opisującej przykłady i pożądane wyjście ze wzmocnieniem system nie jest oceniany nie po każdym przypadku jest nagradzana/karana za generowane pakiety rozwiązań nienadzorowane systemowi dostarczamy wektory wejściowe bez pożądanych wyjść system ma sam odkryć występujące w zbiorze regularności źródło: http://page.mi.fu-berlin.de/rojas/neural 8/

Perceptron 9/

źródło: http://www.generation5.org/content/1999/perceptron.asp Perceptron – co to? najprostszy model Rosenblatt 1958 wiele (>10 000) wejść klasyfikator najprostszy algorytm nauki uczenie dąży do uzyskania najlepszych wag synaps ograniczenia tylko zbiory liniowo separowalne więcej warstw nic nie zmienia źródło: http://www.generation5.org/content/1999/perceptron.asp 10/

Perceptron - zastosowanie rozpoznawanie obrazów klasyfikacja obiektów na podstawie predefiniowanego zestawu cech personalizacja treści google facebook źródło: http://www.google.pl źródło: http://www.endthelie.com/ źródło: http://www.facebook.pl 11/

Perceptron - ograniczenia nawet wiele warstw nie daje nieliniowości ale może dawać ciekawsze wyniki proste kwalifikowanie nauka dąży do zoptymalizowania wag synaps do otrzymania wyniku jak z danych wzorcowych strojenie mechanizmu problem ze zbiorami nieseparowalnymi liniowo źródło: http://brain.fuw.edu.pl/~jarek/SIECI/wyklad3.pdf 12/

Belief Nets 13/

źródło: http://en.wikipedia.org/wiki/Bayesian_network Belief Nets -idea inna zasada działania przedstawia związki między zdarzeniami w oparciu o prawdopodobieństwo trudna nauka nie wiadomo, które dendryty zostały pobudzone przez wrażenie proces stochastyczny najbardziej elastyczny typ sieci neuronowej najogólniejszy źródło: http://en.wikipedia.org/wiki/Bayesian_network 14/

Belief Nets – możliwości Dziś biologia medycyna biomonitoring wyszukiwanie semantyczne wspomaganie decyzji AI w grach Jutro? większa moc CPU = większa złożoność sieci źródło: Neural Networks for Machine Learning Lecture 13 15/

źródło: Neural Networks for Machine Learning Lecture 13 Belief Nets – kłopoty Nauka tego typu sieci ma bardzo dużą złożoność obliczeniową Stany określone prawdopodobieństwem Algorytm wake-sleep – rozwiązaniem problemu źródło: Neural Networks for Machine Learning Lecture 13 źródło: praca własna 16/

Belief Nets – wake-sleep algorithm faza dnia neurony uczą się na podstawie wejść (kierunek przepływu informacji jest taki jak przy rozpoznawaniu) uczy warstwy „w głąb” faza nocy neurony uczą się generując wyjścia i starają się ustalić jakie wejścia najprawdopodobniej ustaliłyby dane wyjście. Na tej podstawie zmienia się prawdopodobieństwo, że dany sygnał pobudzi w fazie dnia daną reakcję nauka warstw „do zewnątrz” neuron uczy się poprzez łączenie danych wrażeń ze sobą z zestawu testowego, po czym gdy „śpi” to jego „sny” spajają i nadają kształt wagom źródło: Neural Networks for Machine Learning Lecture 13 17/

Belief Nets – food for thought fizyczna realizacja możliwości dziś – internet jako Internet – samoświadoma Sieć komputery kwantowe – efekty kwantowe czy my tak działamy? na nasze mózgi też działają efekty kwantowe cyfrowa realizacja cudu świadomości? człowiek – biologiczna maszyna? kwestie etyczne kryterium uznania za samoświadomości czy powinniśmy tworzyć świadome życie w krzemie status etyczny cyfrowej świadomości 18/

Belief Nets – food for thought kolejny krok w ewolucji człowiek skażony biologicznością, chorobą, śmiercią samoświadoma sieć neuronowa – byt doskonalszy on człowieka? konsekwencje AI – pomoc ludzkości, czy apokalipsa? Terminator, Matrix, Diuna pokojowa kooperacja przyszłość kopiowanie umysłu umierającego i tworzenie AI? 19/

Dziękuję za uwagę