Belief Nets Autor: inż. 2013r. źródło tła: http://speculativeheresy.files.wordpress.com/2008/08/space.jpg
źródło: http://www.cs.cmu.edu/~15381/ Plan prezentacji sieć neuronowa trochę historii matematyka nauka prosty neuron belief nets idea możliwości problemy źródło: http://www.cs.cmu.edu/~15381/ 2/
Sieć neuronowa 3/
Sieć neuronowa - historia Pawłow odruch warunkowy 1904 Ramon y Oajal opis struktury sieci nerwowej 1906 Einthoven rejestracja biopotencjałów tkanek 1924 Hodgikin i Iluxley model propagacji sygnału w aksonie 1963 4/
Sieć neuronowa - biologia Jądro centrum obliczeniowe Dendryty wejścia neuronu Synapsy furta wejściowa wzmacniacz wejść wstępna modyfikacja Wzgórek aksonu wyjście Akson połączenia do kolejnych neuronów źródło: http://home.agh.edu.pl/~vlsi/AI/wstep/ 5/
Sieć neuronowa - matematyka wejścia – dendryty wagi – synapsy blok sumujący – jądro blok aktywacji – wzgórek aksonu wyjście - akson źródło: http://home.agh.edu.pl/~vlsi/AI/wstep/ zależnie funkcji f(ϕ) różne przebiegi wyjścia neuronu źródło: http://home.agh.edu.pl/~vlsi/AI/wstep/ 6/
Sieć neuronowa - struktura sieci jednokierunkowe jedna warstwa wiele warstw sieci rekurencyjne sieci komórkowe źródło: http://pl.wikipedia.org/wiki/Sie%C4%87_neuronowa źródło: http://home.agh.edu.pl/~vlsi/AI/wstep/ źródło: http://home.agh.edu.pl/~vlsi/AI/wstep/ 7/
Sieci neuronowe - nauka bez uczenia się sieć jest bezużyteczna idea nauki typy nauki nadzorowane z nauczycielem wektory wejściowe i pożądane wektory wyjściowe zadanie systemu to nauczenie się funkcji najlepiej opisującej przykłady i pożądane wyjście ze wzmocnieniem system nie jest oceniany nie po każdym przypadku jest nagradzana/karana za generowane pakiety rozwiązań nienadzorowane systemowi dostarczamy wektory wejściowe bez pożądanych wyjść system ma sam odkryć występujące w zbiorze regularności źródło: http://page.mi.fu-berlin.de/rojas/neural 8/
Perceptron 9/
źródło: http://www.generation5.org/content/1999/perceptron.asp Perceptron – co to? najprostszy model Rosenblatt 1958 wiele (>10 000) wejść klasyfikator najprostszy algorytm nauki uczenie dąży do uzyskania najlepszych wag synaps ograniczenia tylko zbiory liniowo separowalne więcej warstw nic nie zmienia źródło: http://www.generation5.org/content/1999/perceptron.asp 10/
Perceptron - zastosowanie rozpoznawanie obrazów klasyfikacja obiektów na podstawie predefiniowanego zestawu cech personalizacja treści google facebook źródło: http://www.google.pl źródło: http://www.endthelie.com/ źródło: http://www.facebook.pl 11/
Perceptron - ograniczenia nawet wiele warstw nie daje nieliniowości ale może dawać ciekawsze wyniki proste kwalifikowanie nauka dąży do zoptymalizowania wag synaps do otrzymania wyniku jak z danych wzorcowych strojenie mechanizmu problem ze zbiorami nieseparowalnymi liniowo źródło: http://brain.fuw.edu.pl/~jarek/SIECI/wyklad3.pdf 12/
Belief Nets 13/
źródło: http://en.wikipedia.org/wiki/Bayesian_network Belief Nets -idea inna zasada działania przedstawia związki między zdarzeniami w oparciu o prawdopodobieństwo trudna nauka nie wiadomo, które dendryty zostały pobudzone przez wrażenie proces stochastyczny najbardziej elastyczny typ sieci neuronowej najogólniejszy źródło: http://en.wikipedia.org/wiki/Bayesian_network 14/
Belief Nets – możliwości Dziś biologia medycyna biomonitoring wyszukiwanie semantyczne wspomaganie decyzji AI w grach Jutro? większa moc CPU = większa złożoność sieci źródło: Neural Networks for Machine Learning Lecture 13 15/
źródło: Neural Networks for Machine Learning Lecture 13 Belief Nets – kłopoty Nauka tego typu sieci ma bardzo dużą złożoność obliczeniową Stany określone prawdopodobieństwem Algorytm wake-sleep – rozwiązaniem problemu źródło: Neural Networks for Machine Learning Lecture 13 źródło: praca własna 16/
Belief Nets – wake-sleep algorithm faza dnia neurony uczą się na podstawie wejść (kierunek przepływu informacji jest taki jak przy rozpoznawaniu) uczy warstwy „w głąb” faza nocy neurony uczą się generując wyjścia i starają się ustalić jakie wejścia najprawdopodobniej ustaliłyby dane wyjście. Na tej podstawie zmienia się prawdopodobieństwo, że dany sygnał pobudzi w fazie dnia daną reakcję nauka warstw „do zewnątrz” neuron uczy się poprzez łączenie danych wrażeń ze sobą z zestawu testowego, po czym gdy „śpi” to jego „sny” spajają i nadają kształt wagom źródło: Neural Networks for Machine Learning Lecture 13 17/
Belief Nets – food for thought fizyczna realizacja możliwości dziś – internet jako Internet – samoświadoma Sieć komputery kwantowe – efekty kwantowe czy my tak działamy? na nasze mózgi też działają efekty kwantowe cyfrowa realizacja cudu świadomości? człowiek – biologiczna maszyna? kwestie etyczne kryterium uznania za samoświadomości czy powinniśmy tworzyć świadome życie w krzemie status etyczny cyfrowej świadomości 18/
Belief Nets – food for thought kolejny krok w ewolucji człowiek skażony biologicznością, chorobą, śmiercią samoświadoma sieć neuronowa – byt doskonalszy on człowieka? konsekwencje AI – pomoc ludzkości, czy apokalipsa? Terminator, Matrix, Diuna pokojowa kooperacja przyszłość kopiowanie umysłu umierającego i tworzenie AI? 19/
Dziękuję za uwagę