SZTUCZNA INTELIGENCJA INSPIRACJE BIOLOGICZNE SZTUCZNYCH SIECI NEURONOWYCH Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii Biomedycznej Laboratorium Biocybernetyki 30-059 Kraków, al. Mickiewicza 30, paw. C3/205 horzyk@agh.edu.pl, Google: Adrian Horzyk Adrian Horzyk
MÓZG Plastyczny Błyskawicznie reaguje Zdolny do adaptacji i samoorganizacji Zdolność do kompensacji po uszkodzeniach elementów Zdolny do równoległego przetwarzania danych Umożliwia uczenie się, adaptację i myślenie Uogólnia obiekty, fakty i reguły Kreatywnie reaguje w nowych kontekstach Aktywnie reprezentuje wiedzę Jest siedliskiem inteligencji Inspiracją dla moich badań jest mózg – plastyczny twór – zdolny zmieniać strukturę swoich połączeń przez całe życie, mogąc zmieniać sposób swojego reagowania i wywoływania skojarzeń pod wpływem różnych bodźców, doświadczeń, nauki i rozważań. Jest on zdolny również błyskawicznie reagować na znane mu kombinacje bodźców dochodzących od receptorów. Umożliwia uczenie się, nabywanie, poszerzanie i weryfikację wiedzy oraz myślenie wykorzystując wcześniej skojarzone informacje. Potrafi automatycznie uogólniać i być kreatywny oraz jest siedliskiem inteligencji zależnej od zdobytej wiedzy.
NEURONY BIOLOGICZNE I SZTUCZNE Neurony nie tylko sumują ważone sygnały wejściowe. Podlegają procesom relaksacji i refrakcji w czasie. Neurony posiadają progi aktywacji i swoją wrażliwość. Reprezentują kombinacje, umożliwiające im selektywne oddziaływanie na inne neurony. [LASEROWY WSKAŹNIK] Najważniejszymi elementami funkcjonalnymi w mózgu i całym układzie nerwowym są neurony, aczkolwiek ważne znaczenie odgrywają też receptory, efektory, komórki glejowe i przestrzeń międzyneuronalna wypełniona płynem mózgowo-rdzeniowym, dzięki któremu możliwe są procesy plastyczne sterujące łączeniem się neuronów oraz ich funkcjonowaniem. Neurony nie tylko sumują ważone sygnały wejściowe [POKAZAĆ] wyznaczając swoje wyjście na podstawie pewnej funkcji aktywacji [POKAZAĆ], jak często są modelowane dla potrzeb sztucznych sieci neuronowych, lecz również podlegają procesom relaksacji i refrakcji zachodzących w czasie i zależnych od progu aktywacji neuronów. Procesy stopniowo zachodzące w czasie umożliwiają temporalne utrzymanie wpływu na jego dalsze potencjalne aktywacje, zależne również od wielkości neuronów oraz wynikającej z nich wrażliwości i reaktywności. Kombinacje pobudzające neuron tak, iż przekracza ów próg, powodują jego aktywację, umożliwiając mu selektywne oddziaływanie na inne połączone z nim neurony lub efektory.
WIELKOŚĆ I PLASTYCZNOŚĆ NEURONÓW Neurony biologiczne różnią się: wielkością i pojemnością, wrażliwością i reaktywnością, reprezentowanymi zbiorami kombinacji bodźców (danych), połączeniami i innymi cechami… Na zdjęciu widoczne są neurony, które wyraźnie różnią się co do wielkości, a wielkość ta ma bardzo istotne znaczenie funkcjonalne, ponieważ wiąże się z różną pojemnością ciał somatycznych neuronów. Neurony mogą więc mieścić w sobie różną ilość jonów [POKAZAĆ], które wpływają na tworzenie się i zmiany potencjału błonowego, którego wielkość decyduje o osiągnięciu przez neuron progu aktywacji. Większe neurony potrzebują być więc mocniej lub dłużej pobudzane, żeby osiągnęły ten próg. To przekłada się na jego wrażliwość i reaktywność, a pośrednio na kombinacje bodźców, które neuron reprezentuje. Neuron zaś reprezentuje te kombinacje bodźców, które go aktywują, a jego aktywacja jest sygnałem przekazującym informacje do innych neuronów o tym, iż została rozpoznana jedna z reprezentowanych przez niego kombinacji. Dzięki mechanizmom plastycznym funkcjonującym w neuronach, mogą one stopniowo zmieniać reprezentowane kombinacje bodźców, adaptując się do tych najmocniejszych, jakie do nich najczęściej docierają.
Szybkie i wybiórcze przekazywanie informacji POŁĄCZENIA I SYNAPSY Szybkie i wybiórcze przekazywanie informacji Adaptatywne reagowanie na nadchodzące sygnały Zróżnicowanie reprezentowanych kombinacji Połączenia międzyneuronalne umożliwiają zaś szybkie wybiórcze oddziaływania pomiędzy neuronami, receptorami i efektorami. Połączenia te zwykle zachodzą za pośrednictwem kolbek synaptycznych (jak na rysunkach poniżej [POKAZAĆ]), w których sygnały elektryczne zamieniane są na postać chemicznych neurotransmiterów [POKAZAĆ], oddziałujących na elementy postsynaptyczne [KLIKNĄĆ], w których wywołują zmiany umożliwiając przepływ jonów [KLIKNĄĆ] i zmiany konformacyjne białek zdolne aktywować transkrypcję genów w jądrach neuronów oraz wywołać procesy plastyczne zmieniające reprezentowane kombinacje przez neuron. Dzięki połączeniom i synapsom oraz ilości i zróżnicowaniu receptorów reagujących na różne neurotransmitery, neurony mogą wybiórczo zmieniać zbiory reprezentowanych kombinacji w zależności od ich siły, podobieństwa i częstości powtarzania się.
PLASTYCZNOŚĆ SYNAPS Adaptacyjne mechanizmy plastyczne zależne są od czasu na poziomie milisekund pomiędzy aktywacjami presynaptycznymi i postsynaptycznymi: Materiały uzupełniające: http://neuroscience.uth.tmc.edu/s1/chapter07.html Połączenia międzyneuronalne umożliwiają zaś szybkie wybiórcze oddziaływania pomiędzy neuronami, receptorami i efektorami. Połączenia te zwykle zachodzą za pośrednictwem kolbek synaptycznych (jak na rysunkach poniżej [POKAZAĆ]), w których sygnały elektryczne zamieniane są na postać chemicznych neurotransmiterów [POKAZAĆ], oddziałujących na elementy postsynaptyczne [KLIKNĄĆ], w których wywołują zmiany umożliwiając przepływ jonów [KLIKNĄĆ] i zmiany konformacyjne białek zdolne aktywować transkrypcję genów w jądrach neuronów oraz wywołać procesy plastyczne zmieniające reprezentowane kombinacje przez neuron. Dzięki połączeniom i synapsom oraz ilości i zróżnicowaniu receptorów reagujących na różne neurotransmitery, neurony mogą wybiórczo zmieniać zbiory reprezentowanych kombinacji w zależności od ich siły, podobieństwa i częstości powtarzania się.
STAN NEURONU Zmienia się z upływem czasu pod wpływem wewnętrznych procesów, a nie tylko na skutek zewnętrznych oddziaływań. Upływ czasu w sposób istotny reguluje procesy zachodzące w układzie nerwowym, a w szczególności w neuronach i receptorach. Czas decyduje o zmianach stanu neuronów i wygaszaniu informacji o ich wcześniejszej aktywności oraz pobudzeniach. Wcześniejsze pobudzenia i aktywność neuronu zmieniają jego wrażliwość i reaktywność na kolejne bodźce, które dzięki nim mogą wcześniej albo później wywołać stan jego ponownej aktywacji. Są z tym związane zjawiska relaksacji i refrakcji, które zachodzą w czasie. RELAKSACJA – to powrót w czasie potencjału błonowego neuronu do stanu równowagi po jego pobudzeniu, lecz nie osiągnięciu aktywacji. W trakcie okresu relaksacji neuron jest bardziej wrażliwy na kolejne pobudzenia, aczkolwiek ta wrażliwość stopniowo wygasa. Natomiast REFRAKCJA – to powrót w czasie potencjału błonowego neuronu do stanu równowagi po jego aktywacji. W trakcie okresu refrakcji neuron jest niezdolny, a potem mniej wrażliwy na kolejne pobudzenia, co może wpłynąć na zmianę kolejności aktywacji innych neuronów w sieci. Czas wespół z innymi czynnikami decyduje o stanie neuronów oraz ich zwiększonej lub zmniejszonej reaktywności.
PIERWSZE MODELE SZTUCZNYCH NEURONÓW Pierwsze modele neuronów: Model McCullocha-Pittsa (1943 r.) odzwierciedla tylko proste sumowanie statycznie ważonych sygnałów wejściowych x1,…,xn, jakie do niego docierają, próg aktywacji w0 oraz pewną funkcję aktywacji f zależną od wartości sumy ważonej sygnałów wejściowych i wartości progu: Mimo dużej prostoty, model ten znalazł ogromną ilość zastosowań w bardzo wielu współcześnie stosowanych metodach inteligencji obliczeniowej, pokazując swoją uniwersalność i możliwość jego zastosowania w różnych zadaniach aproksymacji, regresji, klasyfikacji, pamięciach skojarzeniowych i wielu innych. Pierwsza generacja neuronów McCullocha-Pittsa zbudowana była z wykorzystaniem dyskretnych funkcji aktywacji, które zwracają wartości unipolarne {0; 1} lub bipolarne {-1; 1}.
CIĄGŁE FUNKCJE AKTYWACJI NEURONÓW Druga generacja neuronów wywodzących się modelu McCullocha-Pittsa stosuje ciągłe funkcje aktywacji z zakresu [0;1] lub [-1;1], wykorzystując najczęściej sigmoidalne lub radialne funkcje aktywacji. Istnieją neurony sigmoidalne, neurony oparte o funkcję tangens hiperboliczny lub neuronami radialnymi, np. neuron Gaussowski, neuron Hardy’ego, neuron wielomianowy. Są one stosowane obecnie najpowszechniej w różnego rodzaju modelach sztucznych sieci neuronowych: gdzie β, σ, δ i c są parametrami, z których niektóre mogą być adaptowane w trakcie procesu nauki sieci, wykorzystującej takie neurony.
SPOSÓB DZIAŁANIA SZTUCZNEGO NEURONU Działanie sieci neuronowej jest wypadkową działania poszczególnych neuronów oraz zachodzących pomiędzy nimi interakcji. Pojedynczy neuron w typowych przypadkach realizuje (z matematycznego punktu widzenia) operację iloczynu skalarnego wektora sygnałów wejściowych oraz wektora wag. W efekcie odpowiedź neuronu zależy od wzajemnych stosunków geometrycznych pomiędzy wektorami sygnałów i wektorami wag.
SZTUCZNE SIECI NEURONOWE Sztuczne sieci neuronowe są pewnymi bardzo uproszczonymi modelami rzeczywistych sieci (grafów) neuronowych funkcjonujących np. w ludzkim mózgu.
Uczenie sztucznych sieci neuronowych Do najbardziej znanych i powszechnie wykorzystywanych metod uczenia sieci neuronowych należą: Reguła Hebba polegająca na wzmacnianiu tych połączeń synaptycznych (A~B), w których aktywność jednego neuronu A powoduje aktywność drugiego połączonego z nim neuronu B. Odpowiada to empirycznym badaniom nad LTP (long term potentiation). Metoda wstecznej propagacji błędów (back propagation) umożliwiająca uczenie sieci wielowarstwowych poprzez propagację różnicy pomiędzy pożądanym a otrzymanym sygnałem na wyjściu sieci. Samoorganizacja w sieci neuronowej (np. SOM) umożliwiają uczenie sieci bez nauczyciela (unsupervised), którego celem jest wykształcenie w sieci neuronów, które by reagowały na pewne powtarzające się kombinacje bodźców z przestrzeni danych, którym można później przypisać pewne znaczenie. W tych sieciach wzmacniany jest neuron, który osiąga największą wartość pobudzenia oraz ew. również otaczające go neurony, co zapewnia sytuowanie podobnych kombinacji bodźców blisko siebie. Sieci rekurencyjne (np. sieci Hoppfielda), których bodźce krążą przez pewien określony czas aż do osiągnięcia pewnego stanu stabilności, który jest traktowany jako odpowiedź sieci.
PODSTAWOWE REGUŁY UCZENIA SN Sztuczne sieci neuronowe można adaptować do rozwiązywania różnych zadań na wiele różnych sposobów. Istnieje wiele reguł ich adaptacji, spośród których większość wykorzystuje uczenie się oparte o tzw. wzorce uczące. W sztucznych sieciach neuronowych w trakcie uczenia adaptacji podlegają wagi reprezentujące siłę połączeń pomiędzy neuronami.
REGUŁA DELTA UCZENIA SN Jedną z najbardziej znanych i często stosowanych reguł adaptacji sztucznych sieci neuronowych w procesie uczenia jest reguła delta.
ZASTOSOWANIA I RYNEK SIECI NEURONOWYCH Klasyfikacji (obrazów, mowy, procesów,…) Regresji (funkcji matematycznych,…) Rozpoznawania (obiektów, ludzi, gestów, pisma…) Identyfikacji (obiektów, ludzi, gestów, pisma…) Przewidywania i prognozowania (np. szeregów czasowych, kursów walut,…) Sterowania i optymalizacji (np. różnych urządzeń ze sprzężeniem zwrotnym, …) Analizy i grupowania (np. w marketingu, sprzedaży, produkcji,…) Analizy ryzyka i opłacalności (np. kredytów i pożyczek bankowych,…) Doboru (np. surowców, składników, dla których nie jest znana technologia) … i wielu innych zagadnień, gdzie nie znamy algorytmu lub jego założenia są rozmyte albo złożoność obliczeniowa klasycznych rozwiązań zbyt duża. Obecny rynek rozwiązań z zakresu sztucznej inteligencji i sieci neuronowych liczy sobie 20 000 000 000 USD rocznie i z roku na rok wykładniczo rośnie.
INSPIRACJE BIOLOGICZNE Sztuczne sieci neuronowe Algorytmy ewolucyjne Algorytmy genetyczne Metody roju Logika rozmyta i systemy rozmyte Liczby niepewne Teoria chaosu Inżynieria i reprezentacja wiedzy Kojarzenie, inteligencja i sztuczna świadomość Inspiracją dla moich badań jest mózg – plastyczny twór – zdolny zmieniać strukturę swoich połączeń przez całe życie, mogąc zmieniać sposób swojego reagowania i wywoływania skojarzeń pod wpływem różnych bodźców, doświadczeń, nauki i rozważań. Jest on zdolny również błyskawicznie reagować na znane mu kombinacje bodźców dochodzących od receptorów. Umożliwia uczenie się, nabywanie, poszerzanie i weryfikację wiedzy oraz myślenie wykorzystując wcześniej skojarzone informacje. Potrafi automatycznie uogólniać i być kreatywny oraz jest siedliskiem inteligencji zależnej od zdobytej wiedzy.
CZY SIECI NEURONOWE ROZWINĄ AI?