Kognitywne właściwości sieci neuronowych

Slides:



Advertisements
Podobne prezentacje
Sieć jednokierunkowa wielowarstwowa
Advertisements

SIECI NEURONOWE Sztuczne sieci neuronowe są to układy elektroniczne lub optyczne, złożone z jednostek przetwarzających, zwanych neuronami, połączonych.
SZTUCZNE SIECI NEURONOWE
SZTUCZNA INTELIGENCJA ARTIFICIAL INTELLIGENCE
Inteligencja Obliczeniowa Sieci dynamiczne cd.
Katedra Informatyki Stosowanej UMK
Katedra Informatyki Stosowanej UMK
Uczenie konkurencyjne.
Samoorganizacja: uczenie bez nadzoru.
Inteligencja Obliczeniowa Sieci dynamiczne.
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Inteligencja Obliczeniowa Sieci o zmiennej strukturze.
Inteligencja Obliczeniowa Perceptrony
SIECI NEURONOWE Wykład III.
Sieci neuronowe - architektury i zastosowania
Sztuczne sieci neuronowe
Czy potrafimy obliczyć wartość wyjścia sieci znając wartości jej wejść? Tak, przy założeniu, że znamy aktualne wartości wag i progów dla poszczególnych.
Obserwowalność System ciągły System dyskretny u – wejścia y – wyjścia
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania.
SZTUCZNE SIECI NEURONOWE
Magda Kusiak Karol Walędzik prof. dr hab. Jacek Mańdziuk
mgr inż. Rafał Komański styczeń 2004
Mirosław ŚWIERCZ Politechnika Białostocka, Wydział Elektryczny
Sieci Hopfielda.
Sieci neuronowe jednokierunkowe wielowarstwowe
Sztuczne sieci neuronowe (SSN)
Zastosowanie technologii CUDA w sztucznej inteligencji
Klasyfikacja dokumentów za pomocą sieci radialnych
formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych
Systemy wspomagania decyzji
Sztuczne Sieci Neuronowe
Systemy Wspomagania Decyzji
formalnie: Uczenie nienadzorowane
Wspomaganie decyzji nie zwalnia od decyzji...
Detekcja twarzy w obrazach cyfrowych
Uczenie w Sieciach Rekurencyjnych
Systemy wspomagania decyzji
Modelowanie i Identyfikacja 2011/2012 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania 1 Warstwowe.
Model I/O bazujący na HSWN Problem uczenia sieci HSWN
„Zdolności a umiejętności”
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
Do technik tych zalicza się: * sztuczne sieci neuronowe
Sieci neuronowe, falki jako przykłady metod analizy sygnałów
Modelowanie Kognitywne
Algorytmy- Wprowadzenie do programowania
Mateusz Wawrzyniak & Michał Warzocha
Algorytm kaskadowej korelacji
Warstwowe sieci jednokierunkowe – perceptrony wielowarstwowe
Metody sztucznej inteligencji – technologie rozmyte i neuronoweReguła propagacji wstecznej  Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów.
SZTUCZNA INTELIGENCJA
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania Modelowanie i podstawy identyfikacji 2015/2016 Modele neuronowe – podstawy,
Narzędzia AI Dominik Ślęzak, Pokój Wykład dostępny na:
Etapy procesu sterowania rozmytego
Belief Nets Autor: inż. 2013r źródło tła:
Sztuczne Sieci Neuronowe Modele neuronowe
Głębokie uczenie Sieci Neuronowe Wykład 16 Włodzisław Duch
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Learnmatrix, Adaline, Madaline i modele liniowe
Systemy neuronowo – rozmyte
Perceptrony o dużym marginesie błędu
Zrozumieć, przeanalizować i rozwiązać
Sztuczne Sieci Neuronowe Modele neuronowe
Sieci o zmiennej strukturze
Perceptrony o dużym marginesie błędu
Systemy Ekspertowe i Sztuczna Inteligencja trudne pytania
Inteligencja Obliczeniowa Perceptrony
Katedra Informatyki Stosowanej UMK
Wyniki egzaminu próbnego
Programowanie sieciowe Laboratorium 4
Perceptrony wielowarstwowe, wsteczna propagacja błędów
Zapis prezentacji:

Kognitywne właściwości sieci neuronowych Artur Grabowski Kognitywistyka II Rok II Stopnia

Spis treści Początki sieci neuronowych Przykłady rodzajów sieci Zastosowanie oraz przyszłość sieci neuronowych

POCZĄTKI SIECI NEURONOWYCH

Matematyczny model neuronu Mc Cullocha-Pittsa (1943 r.) Każdemu z wejść przyporządkowana jest waga Obliczana jest suma ważona (zsumowane wejścia * wagi) Funkcja aktywacji działa na zasadzie „przełącznika” – tzn. jeżeli wynik z powyższego nie przekroczy pewnego progu to nie następuje wtedy aktywacja i odwrotnie

Model McCullocha- Pittsa stał się później inspiracją do dalszych badań Model McCullocha- Pittsa stał się później inspiracją do dalszych badań. W 1957 r. Frank Rosenblatt wraz z  Charlesem Wightmanem stworzyli prototyp sieci neuronalnej tzw. perceptron. Perceptron jest określany jako najprostsza sieć neuronowa bazująca na jednym lub wielu połączonych neuronów McCullocha-Pittsa. Perceptron jednowarstwowy Perceptron wielowarstwowy Pokaz przykładowy (predyspozycje wyboru partnera)

Perceptrony jednowarstwowe radzą sobie z problemami, które można odseparować linią/płaszczyzną/hiperpłaszczyzną. To znaczy, że radzą sobie one tylko z problemami separowalnymi.

Po publikacji w 1969 książki Minsky'ego i Paperta, w której udowodnili, że jednowarstwowe sieci mają skończone zastosowania, nastąpiło zatrzymanie badań na ok. 20 lat. Powrót zainteresowania w połowie lat osiemdziesiątych zapoczątkowały prace ukazujące, że wielowarstwowe, nieliniowe sieci neuronowe nie mają ograniczeń.

RÓŻNE RODZAJE SIECI

Sieci Kohonena Samoorganizujące się mapy Uczenie przebiega na zasadzie konkurencji neuronów (jest to rozszerzenie metody WTA- winner takes all )

Sieć Hopfielda Jest to sieć rekurencyjna – przekierowuje wyjścia na wejścia (wystarczy kilka takich połączeń) Charakteryzuje się: wysoką gęstością połączeń rekurencyjnych wyjście każdego neuronu jest kierowane na wejście wszystkich pozostałych; z zastrzeżeniem braku samosprzężenia

Liquid- state machines (LSM) Połączenia neuronów są losowe. Stosowanie funkcji nieliniowych – ich liczba pozwala na wykonywanie różnorodnych obliczeń, które można wykorzystać w różnych zadaniach np. rozpoznawanie mowy czy też komunikacji wzrokowej z komputerem

PRZYKŁADY ZASTOSOWAŃ SIECI NEURONOWYCH

NETtalk NETtalk (1987) – Sejnowski – przebadanie zastosowań sieci neuronowej do czytania tekstów pisanych, sieć w trakcie uczenia miała nabyć zdolności czytania. Pokazanie sieci w SNNS

Sterowanie jazdą samochodu Kamera rejestruje obraz tego, co znajduje się przed samochodem (30x32 piksele =960 neuronów). Na wejście podajemy też obraz z dalomierza, co koduje odległość (8x32 piksele = 256 neuronów) W warstwie ukrytej mamy 29 neuronów W warstwie wyjściowej 45 neuronów, które sterują ruchami kierownicy. Kiedy zapalony był środkowy, znaczyło, że jedziemy prosto. 22 neurony z lewej- w lewo, 22 neurony z prawej - w prawo (o odpowiedni kąt w zależności od zapalonego neuronu)

DEEP LEARNING –TENSOR FLOW

TensorFlow TensorFlow jest otwartą biblioteką do uczenia maszyn do wykonywania różnych zadań , opracowana przez firmę Google, aby zaspokoić ich potrzeby w zakresie systemów zdolnych do budowania i szkolenia sieci neuronowych w celu wykrywania i rzetwarzania wzorców i korelacji, oraz do uczenia się i rozumowania, które przypomina rozumowanie ludzkie. Obecnie wykorzystywane jest w wielu produktach Google Zaletą tej biblioteki jest to iż można ją użyć w wielu językach programowania np. Python, C++, JAVA https://youtu.be/4HCE1P-m1l8 https://deepdreamgenerator.com/generator

Dziękuję za uwagę.