SZTUCZNA INTELIGENCJA

Slides:



Advertisements
Podobne prezentacje
Sieć jednokierunkowa wielowarstwowa
Advertisements

Mechanizm wnioskowania rozmytego
SIECI NEURONOWE Sztuczne sieci neuronowe są to układy elektroniczne lub optyczne, złożone z jednostek przetwarzających, zwanych neuronami, połączonych.
SZTUCZNE SIECI NEURONOWE
SZTUCZNA INTELIGENCJA ARTIFICIAL INTELLIGENCE
Inteligencja Obliczeniowa Sieci dynamiczne cd.
Katedra Informatyki Stosowanej UMK
Katedra Informatyki Stosowanej UMK
Samoorganizacja: uczenie bez nadzoru.
Inteligencja Obliczeniowa Sieci dynamiczne.
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Inteligencja Obliczeniowa Perceptrony
Sieci neuronowe - architektury i zastosowania
Sztuczne sieci neuronowe
Czy potrafimy obliczyć wartość wyjścia sieci znając wartości jej wejść? Tak, przy założeniu, że znamy aktualne wartości wag i progów dla poszczególnych.
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania.
mgr inż. Rafał Komański styczeń 2004
Mirosław ŚWIERCZ Politechnika Białostocka, Wydział Elektryczny
Sieci Hopfielda.
Sieci neuronowe jednokierunkowe wielowarstwowe
Sztuczne sieci neuronowe (SSN)
Zastosowanie technologii CUDA w sztucznej inteligencji
formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych
Systemy wspomagania decyzji
Sztuczne Sieci Neuronowe
Systemy Wspomagania Decyzji
formalnie: Uczenie nienadzorowane
Wspomaganie decyzji nie zwalnia od decyzji...
Uczenie w Sieciach Rekurencyjnych
GŁOSOWA ŁĄCZNOŚĆ Z KOMPUTEREM
Systemy wspomagania decyzji
Modelowanie i Identyfikacja 2011/2012 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania 1 Warstwowe.
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
Instytut Zarządzania – Państwowa Wyższa Szkoła Zawodowa
Do technik tych zalicza się: * sztuczne sieci neuronowe
Sieci neuronowe, falki jako przykłady metod analizy sygnałów
4 lipca 2015 godz pok września 2015 godz pok. 212.
Sztuczne sieci neuronowe
Warstwowe sieci jednokierunkowe – perceptrony wielowarstwowe
Metody sztucznej inteligencji – technologie rozmyte i neuronoweReguła propagacji wstecznej  Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów.
Wybrane zagadnienia inteligencji obliczeniowej Zakład Układów i Systemów Nieliniowych I-12 oraz Katedra Mikroelektroniki i Technik Informatycznych proponują.
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA
BAZY DANYCH Microsoft Access Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i.
SZTUCZNA INTELIGENCJA
BAZY DANYCH Microsoft Access Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i.
Od neuronow do populacji
SZTUCZNA INTELIGENCJA
Metody Inteligencji Obliczeniowej
BAZY DANYCH Microsoft Access Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i.
SZTUCZNA INTELIGENCJA
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania Modelowanie i podstawy identyfikacji 2015/2016 Modele neuronowe – podstawy,
Narzędzia AI Dominik Ślęzak, Pokój Wykład dostępny na:
GeneracjeTechnologia Architektura przetwarzania 0. Przekaźniki elektromechaniczne 1. Lampy elektronowe 2. Tranzystory 3. Układy scalone 3.5.Układy dużej.
Metody Inteligencji Obliczeniowej Adrian Horzyk Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii.
Belief Nets Autor: inż. 2013r źródło tła:
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Podstawowe rodzaje modeli rozmytych
Systemy neuronowo – rozmyte
Kognitywne właściwości sieci neuronowych
Sztuczne Sieci Neuronowe
Perceptrony o dużym marginesie błędu
Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe
Metody sztucznej inteligencji
Perceptrony o dużym marginesie błędu
Systemy Ekspertowe i Sztuczna Inteligencja trudne pytania
Inteligencja Obliczeniowa Perceptrony
Zapis prezentacji:

SZTUCZNA INTELIGENCJA INSPIRACJE BIOLOGICZNE SZTUCZNYCH SIECI NEURONOWYCH Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii Biomedycznej Laboratorium Biocybernetyki 30-059 Kraków, al. Mickiewicza 30, paw. C3/205 horzyk@agh.edu.pl, Google: Adrian Horzyk Adrian Horzyk

MÓZG Plastyczny Błyskawicznie reaguje Zdolny do adaptacji i samoorganizacji Zdolność do kompensacji po uszkodzeniach elementów Zdolny do równoległego przetwarzania danych Umożliwia uczenie się, adaptację i myślenie Uogólnia obiekty, fakty i reguły Kreatywnie reaguje w nowych kontekstach Aktywnie reprezentuje wiedzę Jest siedliskiem inteligencji Inspiracją dla moich badań jest mózg – plastyczny twór – zdolny zmieniać strukturę swoich połączeń przez całe życie, mogąc zmieniać sposób swojego reagowania i wywoływania skojarzeń pod wpływem różnych bodźców, doświadczeń, nauki i rozważań. Jest on zdolny również błyskawicznie reagować na znane mu kombinacje bodźców dochodzących od receptorów. Umożliwia uczenie się, nabywanie, poszerzanie i weryfikację wiedzy oraz myślenie wykorzystując wcześniej skojarzone informacje. Potrafi automatycznie uogólniać i być kreatywny oraz jest siedliskiem inteligencji zależnej od zdobytej wiedzy.

NEURONY BIOLOGICZNE I SZTUCZNE Neurony nie tylko sumują ważone sygnały wejściowe. Podlegają procesom relaksacji i refrakcji w czasie. Neurony posiadają progi aktywacji i swoją wrażliwość. Reprezentują kombinacje, umożliwiające im selektywne oddziaływanie na inne neurony. [LASEROWY WSKAŹNIK] Najważniejszymi elementami funkcjonalnymi w mózgu i całym układzie nerwowym są neurony, aczkolwiek ważne znaczenie odgrywają też receptory, efektory, komórki glejowe i przestrzeń międzyneuronalna wypełniona płynem mózgowo-rdzeniowym, dzięki któremu możliwe są procesy plastyczne sterujące łączeniem się neuronów oraz ich funkcjonowaniem. Neurony nie tylko sumują ważone sygnały wejściowe [POKAZAĆ] wyznaczając swoje wyjście na podstawie pewnej funkcji aktywacji [POKAZAĆ], jak często są modelowane dla potrzeb sztucznych sieci neuronowych, lecz również podlegają procesom relaksacji i refrakcji zachodzących w czasie i zależnych od progu aktywacji neuronów. Procesy stopniowo zachodzące w czasie umożliwiają temporalne utrzymanie wpływu na jego dalsze potencjalne aktywacje, zależne również od wielkości neuronów oraz wynikającej z nich wrażliwości i reaktywności. Kombinacje pobudzające neuron tak, iż przekracza ów próg, powodują jego aktywację, umożliwiając mu selektywne oddziaływanie na inne połączone z nim neurony lub efektory.

WIELKOŚĆ I PLASTYCZNOŚĆ NEURONÓW Neurony biologiczne różnią się: wielkością i pojemnością, wrażliwością i reaktywnością, reprezentowanymi zbiorami kombinacji bodźców (danych), połączeniami i innymi cechami… Na zdjęciu widoczne są neurony, które wyraźnie różnią się co do wielkości, a wielkość ta ma bardzo istotne znaczenie funkcjonalne, ponieważ wiąże się z różną pojemnością ciał somatycznych neuronów. Neurony mogą więc mieścić w sobie różną ilość jonów [POKAZAĆ], które wpływają na tworzenie się i zmiany potencjału błonowego, którego wielkość decyduje o osiągnięciu przez neuron progu aktywacji. Większe neurony potrzebują być więc mocniej lub dłużej pobudzane, żeby osiągnęły ten próg. To przekłada się na jego wrażliwość i reaktywność, a pośrednio na kombinacje bodźców, które neuron reprezentuje. Neuron zaś reprezentuje te kombinacje bodźców, które go aktywują, a jego aktywacja jest sygnałem przekazującym informacje do innych neuronów o tym, iż została rozpoznana jedna z reprezentowanych przez niego kombinacji. Dzięki mechanizmom plastycznym funkcjonującym w neuronach, mogą one stopniowo zmieniać reprezentowane kombinacje bodźców, adaptując się do tych najmocniejszych, jakie do nich najczęściej docierają.

Szybkie i wybiórcze przekazywanie informacji POŁĄCZENIA I SYNAPSY Szybkie i wybiórcze przekazywanie informacji Adaptatywne reagowanie na nadchodzące sygnały Zróżnicowanie reprezentowanych kombinacji Połączenia międzyneuronalne umożliwiają zaś szybkie wybiórcze oddziaływania pomiędzy neuronami, receptorami i efektorami. Połączenia te zwykle zachodzą za pośrednictwem kolbek synaptycznych (jak na rysunkach poniżej [POKAZAĆ]), w których sygnały elektryczne zamieniane są na postać chemicznych neurotransmiterów [POKAZAĆ], oddziałujących na elementy postsynaptyczne [KLIKNĄĆ], w których wywołują zmiany umożliwiając przepływ jonów [KLIKNĄĆ] i zmiany konformacyjne białek zdolne aktywować transkrypcję genów w jądrach neuronów oraz wywołać procesy plastyczne zmieniające reprezentowane kombinacje przez neuron. Dzięki połączeniom i synapsom oraz ilości i zróżnicowaniu receptorów reagujących na różne neurotransmitery, neurony mogą wybiórczo zmieniać zbiory reprezentowanych kombinacji w zależności od ich siły, podobieństwa i częstości powtarzania się.

PLASTYCZNOŚĆ SYNAPS Adaptacyjne mechanizmy plastyczne zależne są od czasu na poziomie milisekund pomiędzy aktywacjami presynaptycznymi i postsynaptycznymi: Materiały uzupełniające: http://neuroscience.uth.tmc.edu/s1/chapter07.html Połączenia międzyneuronalne umożliwiają zaś szybkie wybiórcze oddziaływania pomiędzy neuronami, receptorami i efektorami. Połączenia te zwykle zachodzą za pośrednictwem kolbek synaptycznych (jak na rysunkach poniżej [POKAZAĆ]), w których sygnały elektryczne zamieniane są na postać chemicznych neurotransmiterów [POKAZAĆ], oddziałujących na elementy postsynaptyczne [KLIKNĄĆ], w których wywołują zmiany umożliwiając przepływ jonów [KLIKNĄĆ] i zmiany konformacyjne białek zdolne aktywować transkrypcję genów w jądrach neuronów oraz wywołać procesy plastyczne zmieniające reprezentowane kombinacje przez neuron. Dzięki połączeniom i synapsom oraz ilości i zróżnicowaniu receptorów reagujących na różne neurotransmitery, neurony mogą wybiórczo zmieniać zbiory reprezentowanych kombinacji w zależności od ich siły, podobieństwa i częstości powtarzania się.

STAN NEURONU Zmienia się z upływem czasu pod wpływem wewnętrznych procesów, a nie tylko na skutek zewnętrznych oddziaływań. Upływ czasu w sposób istotny reguluje procesy zachodzące w układzie nerwowym, a w szczególności w neuronach i receptorach. Czas decyduje o zmianach stanu neuronów i wygaszaniu informacji o ich wcześniejszej aktywności oraz pobudzeniach. Wcześniejsze pobudzenia i aktywność neuronu zmieniają jego wrażliwość i reaktywność na kolejne bodźce, które dzięki nim mogą wcześniej albo później wywołać stan jego ponownej aktywacji. Są z tym związane zjawiska relaksacji i refrakcji, które zachodzą w czasie. RELAKSACJA – to powrót w czasie potencjału błonowego neuronu do stanu równowagi po jego pobudzeniu, lecz nie osiągnięciu aktywacji. W trakcie okresu relaksacji neuron jest bardziej wrażliwy na kolejne pobudzenia, aczkolwiek ta wrażliwość stopniowo wygasa. Natomiast REFRAKCJA – to powrót w czasie potencjału błonowego neuronu do stanu równowagi po jego aktywacji. W trakcie okresu refrakcji neuron jest niezdolny, a potem mniej wrażliwy na kolejne pobudzenia, co może wpłynąć na zmianę kolejności aktywacji innych neuronów w sieci. Czas wespół z innymi czynnikami decyduje o stanie neuronów oraz ich zwiększonej lub zmniejszonej reaktywności.

PIERWSZE MODELE SZTUCZNYCH NEURONÓW Pierwsze modele neuronów: Model McCullocha-Pittsa (1943 r.) odzwierciedla tylko proste sumowanie statycznie ważonych sygnałów wejściowych x1,…,xn, jakie do niego docierają, próg aktywacji w0 oraz pewną funkcję aktywacji f zależną od wartości sumy ważonej sygnałów wejściowych i wartości progu: Mimo dużej prostoty, model ten znalazł ogromną ilość zastosowań w bardzo wielu współcześnie stosowanych metodach inteligencji obliczeniowej, pokazując swoją uniwersalność i możliwość jego zastosowania w różnych zadaniach aproksymacji, regresji, klasyfikacji, pamięciach skojarzeniowych i wielu innych. Pierwsza generacja neuronów McCullocha-Pittsa zbudowana była z wykorzystaniem dyskretnych funkcji aktywacji, które zwracają wartości unipolarne {0; 1} lub bipolarne {-1; 1}.

CIĄGŁE FUNKCJE AKTYWACJI NEURONÓW Druga generacja neuronów wywodzących się modelu McCullocha-Pittsa stosuje ciągłe funkcje aktywacji z zakresu [0;1] lub [-1;1], wykorzystując najczęściej sigmoidalne lub radialne funkcje aktywacji. Istnieją neurony sigmoidalne, neurony oparte o funkcję tangens hiperboliczny lub neuronami radialnymi, np. neuron Gaussowski, neuron Hardy’ego, neuron wielomianowy. Są one stosowane obecnie najpowszechniej w różnego rodzaju modelach sztucznych sieci neuronowych: gdzie β, σ, δ i c są parametrami, z których niektóre mogą być adaptowane w trakcie procesu nauki sieci, wykorzystującej takie neurony.

SPOSÓB DZIAŁANIA SZTUCZNEGO NEURONU Działanie sieci neuronowej jest wypadkową działania poszczególnych neuronów oraz zachodzących pomiędzy nimi interakcji. Pojedynczy neuron w typowych przypadkach realizuje (z matematycznego punktu widzenia) operację iloczynu skalarnego wektora sygnałów wejściowych oraz wektora wag. W efekcie odpowiedź neuronu zależy od wzajemnych stosunków geometrycznych pomiędzy wektorami sygnałów i wektorami wag.

SZTUCZNE SIECI NEURONOWE Sztuczne sieci neuronowe są pewnymi bardzo uproszczonymi modelami rzeczywistych sieci (grafów) neuronowych funkcjonujących np. w ludzkim mózgu.

Uczenie sztucznych sieci neuronowych Do najbardziej znanych i powszechnie wykorzystywanych metod uczenia sieci neuronowych należą: Reguła Hebba polegająca na wzmacnianiu tych połączeń synaptycznych (A~B), w których aktywność jednego neuronu A powoduje aktywność drugiego połączonego z nim neuronu B. Odpowiada to empirycznym badaniom nad LTP (long term potentiation). Metoda wstecznej propagacji błędów (back propagation) umożliwiająca uczenie sieci wielowarstwowych poprzez propagację różnicy pomiędzy pożądanym a otrzymanym sygnałem na wyjściu sieci. Samoorganizacja w sieci neuronowej (np. SOM) umożliwiają uczenie sieci bez nauczyciela (unsupervised), którego celem jest wykształcenie w sieci neuronów, które by reagowały na pewne powtarzające się kombinacje bodźców z przestrzeni danych, którym można później przypisać pewne znaczenie. W tych sieciach wzmacniany jest neuron, który osiąga największą wartość pobudzenia oraz ew. również otaczające go neurony, co zapewnia sytuowanie podobnych kombinacji bodźców blisko siebie. Sieci rekurencyjne (np. sieci Hoppfielda), których bodźce krążą przez pewien określony czas aż do osiągnięcia pewnego stanu stabilności, który jest traktowany jako odpowiedź sieci.

PODSTAWOWE REGUŁY UCZENIA SN Sztuczne sieci neuronowe można adaptować do rozwiązywania różnych zadań na wiele różnych sposobów. Istnieje wiele reguł ich adaptacji, spośród których większość wykorzystuje uczenie się oparte o tzw. wzorce uczące. W sztucznych sieciach neuronowych w trakcie uczenia adaptacji podlegają wagi reprezentujące siłę połączeń pomiędzy neuronami.

REGUŁA DELTA UCZENIA SN Jedną z najbardziej znanych i często stosowanych reguł adaptacji sztucznych sieci neuronowych w procesie uczenia jest reguła delta.

ZASTOSOWANIA I RYNEK SIECI NEURONOWYCH Klasyfikacji (obrazów, mowy, procesów,…) Regresji (funkcji matematycznych,…) Rozpoznawania (obiektów, ludzi, gestów, pisma…) Identyfikacji (obiektów, ludzi, gestów, pisma…) Przewidywania i prognozowania (np. szeregów czasowych, kursów walut,…) Sterowania i optymalizacji (np. różnych urządzeń ze sprzężeniem zwrotnym, …) Analizy i grupowania (np. w marketingu, sprzedaży, produkcji,…) Analizy ryzyka i opłacalności (np. kredytów i pożyczek bankowych,…) Doboru (np. surowców, składników, dla których nie jest znana technologia) … i wielu innych zagadnień, gdzie nie znamy algorytmu lub jego założenia są rozmyte albo złożoność obliczeniowa klasycznych rozwiązań zbyt duża. Obecny rynek rozwiązań z zakresu sztucznej inteligencji i sieci neuronowych liczy sobie 20 000 000 000 USD rocznie i z roku na rok wykładniczo rośnie.

INSPIRACJE BIOLOGICZNE Sztuczne sieci neuronowe Algorytmy ewolucyjne Algorytmy genetyczne Metody roju Logika rozmyta i systemy rozmyte Liczby niepewne Teoria chaosu Inżynieria i reprezentacja wiedzy Kojarzenie, inteligencja i sztuczna świadomość Inspiracją dla moich badań jest mózg – plastyczny twór – zdolny zmieniać strukturę swoich połączeń przez całe życie, mogąc zmieniać sposób swojego reagowania i wywoływania skojarzeń pod wpływem różnych bodźców, doświadczeń, nauki i rozważań. Jest on zdolny również błyskawicznie reagować na znane mu kombinacje bodźców dochodzących od receptorów. Umożliwia uczenie się, nabywanie, poszerzanie i weryfikację wiedzy oraz myślenie wykorzystując wcześniej skojarzone informacje. Potrafi automatycznie uogólniać i być kreatywny oraz jest siedliskiem inteligencji zależnej od zdobytej wiedzy.

CZY SIECI NEURONOWE ROZWINĄ AI?