Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

SZTUCZNA INTELIGENCJA ARTIFICIAL INTELLIGENCE

Podobne prezentacje


Prezentacja na temat: "SZTUCZNA INTELIGENCJA ARTIFICIAL INTELLIGENCE"— Zapis prezentacji:

1 SZTUCZNA INTELIGENCJA ARTIFICIAL INTELLIGENCE
WYKŁAD 12 SZTUCZNE SIECI NEURONOWE Dr hab. inż. Barbara Dębska, prof. PWSZ KROSNO Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

2 SZTUCZNE SIECI NEURONOWE
Od dawna tajemnica działania mózgu intryguje ludzi. Podejmowane są próby wyjaśnienia zasad neurofizjologii i neuroanatomii mózgu. Powstało wiele naukowych prac zmierzających do interpretacji takich zjawisk jak inteligencja, myślenie koncepcyjne itp. Z drugiej strony naukowcy w swoich poczynaniach próbują wykorzystać wiedzę o funkcjonowaniu i budowie układu nerwowego w technice. Pomocne w powyższych poszukiwaniach okazują się sztuczne sieci neuronowe bazujące na uproszczonych modelach komórek nerwowych – modelach neuronów. Bardzo cenną cechą tych sieci jest, nabywana trakcie treningu, ich zdolność do adaptacji i samoorganizacji, co jest pożądane przy realizacji takich zadań, w których pojawiają się nieprzewidziane sytuacje. Automatyczna klasyfikacja, optymalizacja, rozpoznawanie i predykcja lub filtracja sygnału, to tylko niektóre z zagadnień, w których metody przetwarzania danych przez sieci neuronowe odgrywają coraz większą rolę. Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

3 Działanie sztucznych sieci neuronowych oparte jest na prostych modelach komórek neuronowych.
sygnał aktywacja 1 neuron S wi xi x x x3 Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

4 SZTUCZNE SIECI NEURONOWE
W roku 1943 McCulloch i Pitts opracowali matematyczny model komórki nerwowej – neuronu. Istotnym elementem tego modelu jest sumowanie sygnałów wejściowych z odpowiednią wagą i poddanie otrzymanej sumy działaniu nieliniowej funkcji aktywacji f . Model neuronu przedstawia rysunek: Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

5 Sygnał wyjściowy neuronu yi jest określony w postaci:
gdzie: xj (j = 1, 2, ,N) – reprezentują sygnały wejściowe, Wi – reprezentuje odpowiednie współczynniki wagowe, (waga dodatnia – przekazuje sygnał pobudzający, waga ujemna – przekazuje sygnał gaszący). Funkcja aktywacji f( ) może mieć różną postać. W modelu McCullocha-Pittsa była to funkcja typu skoku jednostkowego (a). Może być również funkcją typu rozmytego (b). Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

6 y f(s) neuron 1 x1 x2 x3 s = S wixi w1 w2 w3 w0
Odpowiednikami biologicznymi tego modelu neuronu są: dendryty wraz z kolbkami synaptycznymi, ciało komórki oraz akson. Sztuczny neuron składa się z ważonych wejść, jednostki przetwarzającej oraz jednego wyjścia. Jedno połączenie synaptyczne jest wyróżnione: wartość na jego wejściu jest stała i wynosi 1, natomiast wartość jego wagi zwana jest wartością progową WO. y x x x3 f(s) s = S wixi w1 w2 w3 w0 1 Wartość sygnału wyjściowego y neuronu jest określona poprzez: W - wektor wag (ważonych połączeń synaptycznych), x - wektor wartości sygnałów wejściowych, oraz funkcję f , która nazywana jest funkcją aktywacji neuronu. neuron Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

7 O zgromadzonej przez pojedynczy neuron, a w konsekwencji przez sieć neuronową, informacji decydują wartości wagowe połączeń synaptycznych. Zatem metoda doboru tych współczynników wagowych jest kluczowa z punktu widzenia jakości działania sieci. Istotną rolę w pracy systemów opartych na sieciach neuronowych pełni faza treningu, zwana również fazą nauki. Jest ona charakterystyczną cechą tych sieci, w trakcie której uczy się taka sieć poprawnie reagować na wzorce znajdujące się w zbiorze uczącym (treningowym). treningowy monotoringowy testowy Y X Y X Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

8 Ucząc się, sieć nabywa zdolności generalizacji, czyli oczekiwanego reagowania na wektory wejściowe, które nie były zawarte w zbiorze uczącym (monitoringowe i testowe). Można zatem stwierdzić, że struktura neuronowa nabiera doświadczenia w procesie treningu (uczenia) a więc odpowiedzi sieci zależą w dużym stopniu od zawartości zbioru uczącego. Analogicznie do systemów biologicznych, proces nauki jest długi i można rozróżnić podstawowe dwie metody treningu: nadzorowaną (z nauczycielem) oraz nienadzorowaną (bez nauczyciela). uczenie z nadzorem y = f(X) X y uczenie bez nadzoru X = f(L) Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

9 gdzie: k oznacza kolejny cykl uczenia,  jest współczynnikiem uczenia.
Teorię uczenia wag (doboru wag Wi neuronów) opracował Hebb. Założył on, że przyrost wagi Wi w procesie uczenia jest proporcjonalny do iloczynu sygnałów wyjściowych neuronów i współczynnika uczenia: gdzie: k oznacza kolejny cykl uczenia,  jest współczynnikiem uczenia. Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

10 W 1962 roku Rosenblatt zaprezentował teorię dynamicznych systemów neuronowych modelujących mózg, opartą na modelu perceptronowym komórki nerwowej. W modelu tym przyjmuje się taki opis neuronu, w którym funkcja aktywacji przyjmuje dwie wartości binarne: 0 lub 1: W dzisiejszych rozwiązaniach sieciowych przyjmuje się że funkcja aktywacji jest opisana funkcja nieliniową postaci: przy czym zakłada się, że x jest wektorem wejściowym, a y realizowaną funkcją skalarną wielu zmiennych. Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

11 NAJCZĘŚCIEJ SPOTYKANE FUNKCJE AKTYWACJI NEURONU
Funkcja liniowa W przypadku tej funkcji suma ważona jest bezpośrednio przekazywana na wyjście: y=x 'Obcięta' funkcja liniowa Funkcja ta zapewnia, że sygnał wyjściowy nigdy nie będzie mniejszy niż -1 ani większy od jedynki. Zakłada się, że: jeżeli x<-1 to y=-1, jeżeli x>1 to y=1, w pozostałych przypadkach y=x Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

12 FUNKCJE AKTYWACJI NEURONU c.d.
Funkcja progowa unipolarna Tą funkcją było aktywowane wyjście w jednym z pierwszych modeli - modelu McCullocha i Pittsa. Funkcja ta jest opisana wzorem: y=0 gdy x<0 y=1 gdy x>=0 Funkcja progowa bipolarna Funkcja w zasadzie taka sama jak powyższa - zmienia się tylko zakres wartości: y=-1 gdy x<0 y=1 gdy x>=0 Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

13 FUNKCJE AKTYWACJI NEURONU c.d.
Funkcja sigmoidalna unipolarna Funkcja ta jest najczęściej wykorzystywana przy budowie sieci. Opisana jest następującym wzorem: y=1/(1+exp(-*x)) Funkcja sigmoidalna bipolarna Funkcja o rozszerzonym przedziale wartości wyjścia do (-1,1): y=2/(1+exp(-*x))-1 Tangens hiperboliczny Funkcja opisana wzorem: y=(1-exp(-*x))/(1+exp(-*x)) Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

14 Obszary zastosowań sztucznych sieci neuronowych:
Rozwój sieci neuronowych związany jest z rozwojem technologii układów elektronicznych o wielkim stopniu scalenia (VLSI) ponieważ możliwe stało się wtedy równoległe przetwarzanie informacji. Rozwój zastosowań sieci datuje się od opublikowanych w 1982 roku prac Hopfielda, który zastosował do uczenia sieci zasadę propagacji wstępnej. Postęp w teorii i zastosowaniach praktycznych osiągnięto dzięki zainwestowaniu, w tą dziedzinę nauki, dużych środków finansowych. Obszary zastosowań sztucznych sieci neuronowych: aproksymacja (sieć jest uniwersalnym aproksymatorem funkcji wielu zmiennych), klasyfikacja i rozpoznawanie wzorców (sieć uczy się podstawowych cech wzorców, takich jak np. odwzorowania geometryczne układu pikselowego wzorca; podczas uczenia dodatkowo wyszukiwane są różnice występujące w różnych wzorcach, stanowiące podstawę podjęcia odpowiedniej decyzji klasyfikacyjnej) , Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

15 Obszary zastosowań sztucznych sieci neuronowych c.d.:
predykcja (w tej dziedzinie zadaniem sieci jest określenie przyszłych zachowań się systemu na podstawie ciągów wartości z przeszłości. Mając informację o wartościach zmiennej x w chwilach poprzedzających predykcję x(k-1), x(k-2), , x(k-N) sieć podejmuje decyzję, jaka będzie estymowana wartość x’(k) badanego ciągu w chwili aktualnej k. Błąd predykcji  = x(k) – x’(k) jest minimalizowany przez adaptację wag.) sterowanie (w zagadnieniach sterowania sieć identyfikuje parametry procesu niezbędne do uzyskania właściwego sygnału wyjściowego, monitoruje proces i adaptuje się do zmian warunków, natomiast w robotyce może pełnić rolę neuroregulatora). Sieci neuronowe cechuje zdolność do uczenia się i uogólniania nabytej wiedzy. Sieć ma właściwość sztucznej inteligencji - sieć wytrenowana na wybranej grupie danych potrafi skojarzyć nabytą wiedzę i wykazać dobre działanie na danych nie uczestniczących w procesie uczenia. Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

16 PRZYKŁAD WYKORZYSTANIA SIECI NEURONOWYCH DO APROKSYMACJI FUNKCJI
x y y x Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

17 wyjście = 1/(1+exp(-wejście))
y x bias x y wejście =(w1 x + w0) wyjście = 1/(1+exp(-wejście)) Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

18 w1 w0 y x bias x y y y r2 - = r 2 Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

19 w1 w0 y x bias x y Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

20 Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

21 Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

22 Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

23 PODSTAWOWE ARCHITEKTURY SIECI NEURONOWYCH
Sieć jednokierunkowa jednowarstwowa Właściwości sieci: - neurony ułożone w jednej warstwie zasilanej z węzłów wejściowych, - połączenie węzłów wejściowych i wyjściowych jest pełne (każdy węzeł jest połączony z każdym neuronem, - przepływ sygnałów występuje w jednym kierunku, od wejścia do wyjścia, - węzły wejściowe nie tworzą warstwy neuronów, gdyż nie zachodzi w nich żaden proces obliczeniowy, - sieć tego rodzaju nazywa się perceptronem jednowarstwowym. Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

24 PODSTAWOWE ARCHITEKTURY SIECI NEURONOWYCH c.d.
Sieć jednokierunkowa wielowarstwowa Właściwości sieci: - występuje co najmniej jedna warstwa ukryta neuronów, pośrednicząca w przekazywaniu sygnałów między węzłami wejściowymi a warstwą wyjściową, - sygnały wejściowe są podawane na pierwszą warstwę ukrytą neuronów, a te stanowią sygnały źródłowe dla kolejnej warstwy, - pewne połączenia międzyneuronowe mogą nie wystąpić, - wykorzystują funkcję aktywacji o nieliniowości typu sinusoidalnego, - sieć tego rodzaju nazywana jest perceptronem wielowarstwowym. Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

25 PODSTAWOWE ARCHITEKTURY SIECI NEURONOWYCH c.d.
Sieci rekurencyjne Właściwości sieci: - występuje sprzężenie zwrotne między warstwami wyjściową i wejściową, - mogą posiadać jedną warstwę neuronów wyjściowych (rys. a ) lub mają dodatkową warstwę ukrytą (rys. b), - w sieci tej występują jednostkowe operatory opóźnienia z-1 , - w sieci jednowarstwowej nie występuje sprzężenie zwrotne neuronu od własnego sygnału wyjściowego (rys. a), - sygnały warstwy wyjściowej (numerowane od 1 .. M) i ukrytej (numerowane od K) łącznie z sygnałami wejściowymi x1, , xN stanowią wektor wejściowy sieci do następnego cyklu obliczeniowego, - proces ustalania sygnałów wyjściowych sieci jest procesem dynamicznym ze względu na występowanie jednostkowych operatorów opóźnienia, - funkcja aktywacji neuronu jest również nieliniowa. Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

26 PODSTAWOWE ARCHITEKTURY SIECI NEURONOWYCH c.d.
Sieci rekurencyjne c.d. Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

27 PRZEGLĄD PODSTAWOWYCH METOD UCZENIA SIECI
Podstawowa właściwość sieci neuronowej to: zdolność adaptacyjna sieci umożliwiająca zaprojektowanie struktury i dobór parametrów sieci do wykonania określonego zadania. Główny cel procesu uczenia sieci: adaptacyjny dobór wag, który umożliwia dostosowanie działania sieci do warunków środowiskowych określonych w postaci odpowiednich wymagań co do odwzorowania danych wejściowych w wyjściowe. Adaptacja wag odbywa się w kolejnych cyklach i może być zapisana w postaci: przy czym: k oznacza numer cyklu uczącego, Wij(k) jest starą, a Wij(k+1) jest nową wagą synaptyczną łączącą neuron i-ty z j-tym (tzn. określa połączenie od neuronu i-tego do j-tego). Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

28 RODZAJE UCZENIA Uczenie pod nadzorem
Uczenie odbywa się pod nadzorem „zewnętrznego nauczyciela”. W tym trybie wejściowym sygnałom uczącym towarzyszą wartości żądane na wyjściu sieci. Typowym przykładem takiego uczenia jest proces minimalizacji funkcji celu, definiowanej każdorazowo do określonego zadania. Wektor wejściowy: x(k) = [x1(k), x2(k), , xN(k)]T Wektor wyjściowy: d(k) = [d1(k), d2(k), , dN(k)]T Dane uczące: pary (x(k), d(k)), dla k = 1,2, , p gdzie: p – oznacza liczbę wzorców uczących. T – zbiór treningowy (uczący) Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

29 Uczenie pod nadzorem c.d.
Dla każdej pary uczącej można zdefiniować funkcję błędu postaci: przy czym: y(k) jest aktualną odpowiedzią sieci na wymuszenie a postaci wektora wejściowego x(k). Najczęściej przyjmowaną postacią funkcji celu jest błąd średnio kwadratowy (celem jest minimalizacja tego błędu, co zapewnia najlepsze dopasowanie wartości aktualnych odpowiedzi neuronów wyjściowych - wektor y, do wartości żądanych - wektor d) wyliczany dla wszystkich M neuronów wyjściowych i wszystkich p par uczących: Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

30 Uczenie pod nadzorem c.d.
Ogólny schemat procesu uczenia schemat procesu uczenia się pod nadzorem przedstawia rysunek: e(k) y(k) _ d(k) + x(k) Nauczyciel Sieć neuronowa Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

31 Uczenie pod nadzorem c.d.
Uczenie przebiega zgodnie z algorytmem: dla zadanego wektora uczącego i zadanych wstępnie wartości wag Wij oblicza się wartość sygnału wyjściowego yi jeśli wartość yi równa się wartości żądanej di to waga Wij zostaje nie zmieniona jeśli wartość yi nie równa się wartości żądanej di to waga Wij zostaje obliczona zgodnie z zależnością: następnie wprowadza się nową parę wektorów xi oraz di i powtarza cykl tak długo, aż uzyska się minimalizację różnic między wartościami yi i di.: przy czym: p oznacza liczbę zadanych wzorców uczących Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

32 Uczenie pod nadzorem - podsumowanie
Istotną cechą tego procesu jest istnienie sprzężenia zwrotnego, umożliwiającego korekcję wartości wag sieci, prowadzącą do minimalizacji różnic między aktualną odpowiedzią układu wyrażoną przez wektor y, a wartościami żądanymi reprezentowanymi przez wektor d. Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

33 RODZAJE UCZENIA c.d. Uczenie pod nadzorem Uczenie z krytykiem
Uczenie z krytykiem polega na doborze wartości wag sieci metodą prób i błędów w taki sposób, aby zminimalizować wskaźnik jakości uczenia, zależny od postaci jednego sygnału, zwanego krytykiem, generowanego w procesie adaptacji. Podstawą tego uczenia jest przyjęcie, że jeśli podjęta przez sieć akcja daje rezultat pozytywny, to wagi sieci należy wzmocnić do działania w danym kierunku. W przeciwnym przypadku należy tak zmodyfikować wartości wag, aby tę tendencję osłabić. Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

34 Uczenie z krytykiem c.d. Schemat blokowy sieci neuronowej z krytykiem przedstawia rysunek: Sygnał sterujący ŕ Sygnał sterujący pierwotny r Wektor stanu x Podjęta akcja a Układ uczący Środowisko Krytyk Element uczący Baza wiedzy Człon wykonawczy Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

35 Uczenie z krytykiem c.d. Podjęta przez układ uczący w chwili k akcja a(k) wpływa na środowisko zmieniając jego stan z x(k) na x(k+1). Po zmianie stanu środowiska układ uczący otrzymuje od krytyka sygnał sterujący r(k +1), zależny w określony sposób od poprzedniego stanu x(k) oraz podjętej akcji a, której optymalność będzie oceniana z punktu widzenia zmian zachodzących w środowisku. Wskaźnik jakości uczenia jest określany najczęściej w postaci: gdzie: E jest wartością oczekiwaną w sensie wyboru strategii przez system uczący, współczynnik  jest parametrem z przedziału 0    1, jeśli  = 0 to w sterowaniu jest jedynie uwzględniany sygnał r(1) jako wynik pierwszej akcji a(0). Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

36 Uczenie z krytykiem c.d. Głównym elementem układu krytyka jest predykcja sygnału sterującego : Uczenie systemu polega na doborze wag wg. zależności: w której  jest współczynnikiem uczenia, a eij jest uśrednionym parametrem dopasowania, określonym wg. zależności rekurencyjnej: gdzie: eaij jest parametrem dopasowania wagi Wij, parametr  należy do przedziału [0, 1] i jest nazywany „współczynnikiem zapominania”. Gdy wartość  jest bliska 1 to aktualnie podjęta akcja mało wpływa na dobór wagi; gdy  maleje do zera, odpowiedzialność podjętej akcji na zmianę wag wzrasta. Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

37 Uczenie samoorganizujące się
RODZAJE UCZENIA c.d. Uczenie pod nadzorem Uczenie z krytykiem Uczenie samoorganizujące się W tym przypadku nie występuje ani „nauczyciel” ani „krytyk”. Dla neuronu: uczenie opiera się na algorytmie stowarzyszenia zmian sygnałów wyjściowych sieci z odpowiedziami sieci po stronie wyjściowej: Wij(k+1) = Wij(k) +  Wij(k) Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

38 Uczenie samoorganizujące się c.d.
Przykłady sieci samoorganizujących proces uczenia: uczenie Hebba – wykorzystuje się tutaj wynik obserwacji neurobiologicznych, zgodnie z którymi waga powiązań pomiędzy dwoma neuronami wzrasta przy jednoczesnym stanie pobudzenia obu neuronów, w przeciwnym wypadku maleje. Na tej podstawie założono, że:  Wij(k) = F(xj(k), yi(k)), gdzie: F( ) – jest funkcją stanu presynaptycznego (wejściowego – xj ) i postsynaptycznego (wyjściowego - yi ) adaptacja wagi Wij zależy od stanu aktywności neuronów xj i yi połączonych daną wagą i dla modelu uczenia bez nauczyciela wyraża się wzorem:  Wij(k) =  xj(k) yi(k), lub dla uczenia z nauczycielem:  Wij(k) =  xj(k) di(k),  jest współczynnikiem uczenia określającym stopień w jakim sygnały uczące w chwili k wpływają na dobór wartości wag. Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

39 Uczenie samoorganizujące się c.d.
Przykłady sieci samoorganizujących proces uczenia: c.d. uczenie Kohonena - wykorzystuje konkurencję (współzawodnictwo) między neuronami do wyłonienia zwycięzcy, dopasowującego swoje wagi do danych wejściowych, dla których aktywność jest największa. W tym procesie uczenia tylko jeden neuron może być aktywny, a pozostałe pozostają w stanie spoczynkowym. Takie uczenie nosi nazwę WTA (Winner Takes All – Zwycięzca bierze wszystko). Grupa neuronów współzawodniczących otrzymuje te same sygnały wejściowe xj . W zależności od aktualnych wartości wag sygnały wyjściowe neuronów ui = Wij xj różnią się między sobą. W wyniku porównania tych sygnałów zwycięża ten neuron, którego wartość ui jest największa. Neuron zwycięzca przyjmuje na swoim wyjściu stan 1, a pozostałe (przegrywające) stan 0. Sieci Kahonena są stosowane najczęściej do klasyfikacji wektorów. Aktualizacja wag wynika z wyznaczonego przyrostu:  Wij(k) =  [xj(k) -Wij(k)]. Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

40 SIECI KOMÓRKOWE Topologia sieci komórkowych oparta jest na dowolnej regularnej strukturze geometrycznej, najczęściej będącą płaską siatką prostokątną. Utworzona na niej sieć składa się z neuronów zgrupowanych w i wierszach i j kolumnach, jak pokazano na rysunku poniżej. Dowolna komórka cij w i-tym wierszu i w j-tej kolumnie połączona jest bezpośrednio tylko z neuronami leżącymi w odpowiednio zdefiniowanym promieniu sąsiedztwa, zaznaczonymi na rysunku linią przerywaną. Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

41 Przykład. Dana jest sieć neuronowa mająca 2 neurony w warstwie wejściowej i 4 neurony WTA w warstwie wyjściowej: Chcemy, aby sieć klasyfikowała dany w przestrzeni 2D zbiór wektorów. Zakładamy zatem, że powinien nastąpić podział elementów tego zbioru na 4 klasy. Sieć była uczone dla zbioru wektorów wejściowych postaci: Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

42 Przebieg procesu uczenia przedstawia rysunek:
Kółkami zaznaczono kolejne położenia wektorów wag neuronów warstwy wyjściowej, zwyciężających we współzawodnictwie. Trzy neurony zwyciężały w procesie uczenia, natomiast czwarty neuron pozostał martwy ( nigdy nie zwyciężył). Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

43 Odpowiadają one 3 zbiorom wektorów wejściowych:
Uczenie sieci, ze współczynnikiem uczenia  = 0.05 umożliwiło po 320 cyklach uczenia uzyskanie wag trzech pierwszych neuronów w postaci: Odpowiadają one 3 zbiorom wektorów wejściowych: (x1, x2), (x3, x4, x5) oraz (x6, x7, x8) na które samoczynnie został podzielony zbiór wejściowy. Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno

44 Dziękuję za uwagę Dr hab. inż. Barbara Dębska, prof. PWSZ Krosno


Pobierz ppt "SZTUCZNA INTELIGENCJA ARTIFICIAL INTELLIGENCE"

Podobne prezentacje


Reklamy Google