Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

SZTUCZNA INTELIGENCJA SZTUCZNE SIECI NEURONOWE Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

Podobne prezentacje


Prezentacja na temat: "SZTUCZNA INTELIGENCJA SZTUCZNE SIECI NEURONOWE Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej."— Zapis prezentacji:

1 SZTUCZNA INTELIGENCJA SZTUCZNE SIECI NEURONOWE Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii Biomedycznej Laboratorium Biocybernetyki Kraków, al. Mickiewicza 30, paw. C3/205 Google: Adrian Horzyk

2 MÓZG Plastyczny i dynamicznie zmienny twór Plastyczny i dynamicznie zmienny twór Błyskawicznie reaguje na skomplikowane sytuacje Błyskawicznie reaguje na skomplikowane sytuacje Zdolny do adaptacji i samoorganizacji Zdolny do adaptacji i samoorganizacji Zdolność do kompensacji po uszkodzeniach elementów Zdolność do kompensacji po uszkodzeniach elementów Zdolny do równoległego przetwarzania danych Zdolny do równoległego przetwarzania danych Umożliwia uczenie się, adaptację i myślenie Umożliwia uczenie się, adaptację i myślenie Uogólnia obiekty, fakty i reguły Uogólnia obiekty, fakty i reguły Kreatywnie reaguje w nowych kontekstach Kreatywnie reaguje w nowych kontekstach Aktywnie reprezentuje wiedzę Aktywnie reprezentuje wiedzę Jest siedliskiem inteligencji Jest siedliskiem inteligencji

3 NEURONY BIOLOGICZNE I SZTUCZNE  Neurony nie tylko sumują ważone sygnały wejściowe.  Podlegają procesom relaksacji i refrakcji w czasie.  Neurony posiadają progi aktywacji i swoją wrażliwość.  Reprezentują kombinacje, umożliwiające im selektywne oddziaływanie na inne neurony.

4 WIELKOŚĆ I PLASTYCZNOŚĆ NEURONÓW Neurony biologiczne różnią się:  wielkością i pojemnością,  wrażliwością i reaktywnością,  reprezentowanymi zbiorami kombinacji bodźców (danych),  połączeniami  i innymi cechami…

5  Szybkie i wybiórcze przekazywanie informacji  Adaptatywne reagowanie na nadchodzące sygnały  Zróżnicowanie reprezentowanych kombinacji POŁĄCZENIA I SYNAPSY

6 Adaptacyjne mechanizmy plastyczne zależne są od czasu na poziomie milisekund pomiędzy aktywacjami presynaptycznymi i postsynaptycznymi: Materiały uzupełniające: PLASTYCZNOŚĆ SYNAPS

7 STAN NEURONU Zmienia się z upływem czasu pod wpływem wewnętrznych procesów, a nie tylko na skutek zewnętrznych oddziaływań. Czas wespół z innymi czynnikami decyduje o stanie neuronów oraz ich zwiększonej lub zmniejszonej reaktywności.

8 SZTUCZNE SIECI NEURONOWE Artificial Neural Networks - ANN Sztuczne sieci neuronowe – to nazwa przypisywana matematycznym modelom naturalnych sieci neuronowych opierających się na idei neuronu McCullocha-Pittsa oraz jego wariacjom bazującym na różnych:  funkcjach aktywacji sztucznych neuronów,  architekturach połączeń sztucznych neuronów,  metodach adaptacji/uczenia. W sztucznych sieciach neuronowych traktuje się sztuczny neuron jako jednostkę obliczającą na swoim wyjściu pewną wartość (niczym funkcja) na podstawie zwykle ważonych danych wejściowych, z których obliczana jest najczęściej suma ważona wejść, na podstawie której wyznaczają jest wartość tzw. funkcji aktywacji neuronów.

9 SZTUCZNY NEURON Artificial Neuron  Dane z wszystkich wejść x 1 … x n równocześnie oddziałują na sztuczny neuron.  Poprzednie stany sztucznego neuronu nie mają żadnego wpływu na jego aktualny stan, liczy się tylko aktualne pobudzenie oraz wagi w 0k, w 1k … w nk.  Nie istnieją żadne zależności czasowe pomiędzy jego stanami.  Reakcja sztucznego neuronu następuje natychmiast i powoduje obliczenie wartości wyjściowej ewaluując wybraną funkcję aktywacji sztucznego neuronu f, której wartość zależna jest od sumy ważonej wejść oraz aktualnych wartości wag w 0k, w 1k … w nk.  f ykyk x 0 =1 x1x1 x2x2 x3x3 xnxn w 1k w 2k w 3k w nk funkcja aktywacji wyjście wejścia wagi suma ważona próg aktywacji w 0k

10 FUNKCJE AKTYWACJI SZTUCZNYCH NEURONÓW Funkcje aktywacji sztucznych neuronów – to zwykle funkcje progowe/schodkowe, liniowe lub nieliniowe. Funkcje progowe/schodkowe f z wyjściem binarnym {0;1} lub {-1;+1} Funkcje Gaussowskie f z wyjściem ciągłym Funkcje sigmoidalne f z wyjściem ciągłym Funkcje liniowe f z wyjściem ciągłym Wśród funkcji nieliniowych najczęściej występują funkcje sigmoidalne (ew. tangens hiperboliczny) oraz radialne (np. funkcja Gaussa). Funkcje ciągłe umożliwiają aproksymację oraz wykorzystanie metod gradientowych, chętnie stosowanych do adaptacji sztucznych sieci neuronowych.

11 PERCEPTRON model neuronu o progowej funkcji aktywacji Perceptron zdefiniowany jest jako pewna funkcja schodowa: Funkcja schodkowa unipolarna: Funkcja schodkowa bipolarna: Perceptron posiadający n wejść dzieli n-wymiarową przestrzeń wektorów wejściowych x na dwie półprzestrzenie, które są podzielone (n-1)-wymiarową hiperpłaszczyzną, zwaną granicą decyzyjną określoną wzorem: - próg aktywacji neuronu Prosta wyznaczająca podział przestrzeni jest zawsze prostopadła do wektora wag:

12 ALGORYTM UCZENIA PERCEPTRONU Dla określonego zbioru uczącego składającego się z par wektorów uczących (x, d(x)), gdzie d(x) to uczona wartość wyjściowa przez nauczyciela (w uczeniu nadzorowanym) wykonaj następujące kroki: 1.W sposób losowy wybierz wagi początkowe perceptronu w i. 2.Na wejścia perceptronu podaj kolejny wektor uczący x. 3.Oblicz wartość wyjściową perceptronu y(x). 4.Porównaj uzyskaną wartość wyjściową y(x) z wartością wzorcową d dla wektora x. 5.Dokonaj modyfikacji wag według zależności: Jeżeli y(x) ≠ d(x), to w i = w i + d(x) · x i w przeciwnym przypadku waga się nie zmienia. 6.Oblicz średni błąd dla wszystkich wzorców uczących. 7.Jeśli błąd jest mniejszy od założonego lub osiągnięto maksymalną ilość powtórzeń zbioru uczącego przerwij algorytm. 8.W odwrotnym przypadku przejdź do punktu 2.

13 SPOSÓB DZIAŁANIA PERCEPTRONU Działanie sieci neuronowej jest wypadkową działania poszczególnych neuronów oraz zachodzących pomiędzy nimi interakcji. Pojedynczy neuron w typowych przypadkach realizuje (z matematycznego punktu widzenia) operację iloczynu skalarnego wektora sygnałów wejściowych oraz wektora wag. W efekcie odpowiedź neuronu zależy od wzajemnych stosunków geometrycznych pomiędzy wektorami sygnałów i wektorami wag.

14 PIERWSZE MODELE SZTUCZNYCH NEURONÓW Model McCullocha-Pittsa (1943 r.) odzwierciedla tylko proste sumowanie statycznie ważonych sygnałów wejściowych x 1,…,x n, jakie do niego docierają, próg aktywacji w 0 oraz pewną funkcję aktywacji f zależną od wartości sumy ważonej sygnałów wejściowych i wartości progu: Mimo dużej prostoty, model ten znalazł ogromną ilość zastosowań w bardzo wielu współcześnie stosowanych metodach inteligencji obliczeniowej, pokazując swoją uniwersalność i możliwość jego zastosowania w różnych zadaniach aproksymacji, regresji, klasyfikacji, pamięciach skojarzeniowych i wielu innych. Pierwsza generacja neuronów McCullocha-Pittsa zbudowana była z wykorzystaniem dyskretnych funkcji aktywacji, które zwracają wartości unipolarne {0; 1} lub bipolarne {-1; 1}.

15 FUNKCJE CIĄGŁE AKTYWACJI SZTUCZNYCH NEURONÓW Druga generacja neuronów wywodzących się modelu McCullocha-Pittsa stosuje ciągłe funkcje aktywacji z zakresu [0;1] lub [-1;1], wykorzystując najczęściej sigmoidalne lub radialne funkcje aktywacji. Istnieją neurony sigmoidalne, neurony oparte o funkcję tangens hiperboliczny lub neuronami radialnymi, np. neuron Gaussowski, neuron Hardy’ego, neuron wielomianowy. Są one stosowane obecnie najpowszechniej w różnego rodzaju modelach sztucznych sieci neuronowych: gdzie β, σ, δ i c są parametrami, z których niektóre mogą być adaptowane w trakcie procesu nauki sieci, wykorzystującej takie neurony.

16 TOPOLOGIA SZTUCZNYCH SIECI NEURONOWYCH Sztuczne sieci neuronowe są bardzo uproszczonymi i zmodyfikowanymi modelami biologicznych sieci neuronowych o topologii warstwowej spotykanej w korze mózgowej istot żywych.

17 UCZENIE I ADAPTACJA SIECI NEURONOWYCH Do najbardziej znanych i powszechnie wykorzystywanych metod uczenia sieci neuronowych należą: Reguła Hebba polegająca na wzmacnianiu tych połączeń synaptycznych (A~B), w których aktywność jednego neuronu A powoduje aktywność drugiego połączonego z nim neuronu B. Odpowiada to empirycznym badaniom nad LTP (long term potentiation). Metoda wstecznej propagacji błędów (back propagation) umożliwiająca uczenie sieci wielowarstwowych poprzez propagację różnicy pomiędzy pożądanym a otrzymanym sygnałem na wyjściu sieci. Samoorganizacja w sieci neuronowej (np. SOM) umożliwiają uczenie sieci bez nauczyciela (unsupervised), którego celem jest wykształcenie w sieci neuronów, które by reagowały na pewne powtarzające się kombinacje bodźców z przestrzeni danych, którym można później przypisać pewne znaczenie. W tych sieciach wzmacniany jest neuron, który osiąga największą wartość pobudzenia oraz ew. również otaczające go neurony, co zapewnia sytuowanie podobnych kombinacji bodźców blisko siebie. Sieci rekurencyjne (np. sieci Hoppfielda), których bodźce krążą przez pewien określony czas aż do osiągnięcia pewnego stanu stabilności, który jest traktowany jako odpowiedź sieci.

18 PODSTAWY UCZENIA SIECI NEURONOWYCH Sztuczne sieci neuronowe można adaptować do rozwiązywania różnych zadań na wiele różnych sposobów. Istnieje wiele reguł ich adaptacji, spośród których większość wykorzystuje uczenie się oparte o tzw. wzorce uczące. W sztucznych sieciach neuronowych w trakcie uczenia adaptacji podlegają wagi reprezentujące siłę połączeń pomiędzy neuronami.

19 REGUŁA DELTA UCZENIA SIECI NEURONOWYCH Jedną z najbardziej znanych i często stosowanych reguł adaptacji sztucznych sieci neuronowych w procesie uczenia jest reguła delta.

20 TRUDNOŚCI ZWIĄZANE Z ADAPTACJĄ SIECI NEURONÓW Najczęściej spotykane metody adaptacji sieci neuronowych wykorzystują metody optymalizacji gradientowej, wyznaczając kierunek spadku gradientu funkcji błędu. Metody te jednak są narażone na utknięcie w lokalnych minimach, co jest podstawową piętą Achillesa tych metod, nie dając gwarancji znalezienia globalnego minimum – a więc optymalnego rozwiązania z punktu widzenia określonej architektury sieci neuronowej oraz przyjętych funkcji aktywacji neuronów.

21 ZASTOSOWANIA SZTUCZNYCH SIECI NEURONOWYCH Klasyfikacji (obrazów, mowy, procesów,…) Klasyfikacji (obrazów, mowy, procesów,…) Regresji (funkcji matematycznych,…) Regresji (funkcji matematycznych,…) Rozpoznawania (obiektów, ludzi, gestów, pisma…) Rozpoznawania (obiektów, ludzi, gestów, pisma…) Identyfikacji (obiektów, ludzi, gestów, pisma…) Identyfikacji (obiektów, ludzi, gestów, pisma…) Przewidywania i prognozowania (np. szeregów czasowych, kursów walut,…) Przewidywania i prognozowania (np. szeregów czasowych, kursów walut,…) Sterowania i optymalizacji (np. różnych urządzeń ze sprzężeniem zwrotnym, …) Sterowania i optymalizacji (np. różnych urządzeń ze sprzężeniem zwrotnym, …) Analizy i grupowania (np. w marketingu, sprzedaży, produkcji,…) Analizy i grupowania (np. w marketingu, sprzedaży, produkcji,…) Analizy ryzyka i opłacalności (np. kredytów i pożyczek bankowych,…) Analizy ryzyka i opłacalności (np. kredytów i pożyczek bankowych,…) Doboru (np. surowców, składników, dla których nie jest znana technologia) Doboru (np. surowców, składników, dla których nie jest znana technologia) … i wielu innych zagadnień, gdzie nie znamy algorytmu lub jego założenia są rozmyte albo złożoność obliczeniowa klasycznych rozwiązań zbyt duża. … i wielu innych zagadnień, gdzie nie znamy algorytmu lub jego założenia są rozmyte albo złożoność obliczeniowa klasycznych rozwiązań zbyt duża. Obecnie rynek rozwiązań sztucznej inteligencji (w tym sieci neuronowych) liczy sobie USD rocznie i z roku na rok wykładniczo rośnie.

22 INSPIRACJE BIOLOGICZNE I ICH MODELE MATEMATYCZNE Sztuczne sieci neuronowe Sztuczne sieci neuronowe Algorytmy genetyczne Algorytmy genetyczne Algorytmy ewolucyjne Algorytmy ewolucyjne Logika rozmyta i systemy rozmyte Logika rozmyta i systemy rozmyte Liczby niepewne Liczby niepewne Metody roju Metody roju Teoria chaosu Teoria chaosu Inżynieria i reprezentacja wiedzy Inżynieria i reprezentacja wiedzy Kojarzenie, inteligencja i sztuczna świadomość Kojarzenie, inteligencja i sztuczna świadomość

23 AI CZY SZTUCZNE SIECI NEURONOWE PROWADZĄ DO AI?


Pobierz ppt "SZTUCZNA INTELIGENCJA SZTUCZNE SIECI NEURONOWE Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej."

Podobne prezentacje


Reklamy Google