Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Inteligencja Obliczeniowa Perceptrony Wykład 8 Włodzisław Duch Katedra Informatyki Stosowanej UMK Google: W. Duch.

Podobne prezentacje


Prezentacja na temat: "Inteligencja Obliczeniowa Perceptrony Wykład 8 Włodzisław Duch Katedra Informatyki Stosowanej UMK Google: W. Duch."— Zapis prezentacji:

1 Inteligencja Obliczeniowa Perceptrony Wykład 8 Włodzisław Duch Katedra Informatyki Stosowanej UMK Google: W. Duch

2 Co było Learnmatrix. Adeline. Madeline. Aproksymacja elementami liniowymi Demo w Matlabie

3 Co będzie Perceptron jednowarstwowy. Uczenie się perceptronów Nieliniowa reguła delta Adatron

4 Perceptron Rosenblatt (Cornell Univ.) 1960, klasyfikator neuronowy Mark I wzorowany na biologicznej percepcji. Trzy warstwy, elementy: wejściowe (S-units), np. fotokomórki 20 x 20 asocjacyjne (A-units), zbierające dane z większych obszarów, 512 wyjściowe (R-units), 8 Identyfikacja figur, znaków, eksperymenty psychologiczne, szybkość uczenia, błędy. Jakich klasyfikacji dokonać może perceptron? Jak można go uczyć?

5 Perceptron - schemat Perceptron jednowarstwowy.

6 Działanie perceptronów Sygnał błędu obliczany jest po przepuszczeniu przez element progowy. S j = –1, +1 sygnały docierające do elementów sensorycznych; Połączenia C ij = 0, ±1 elementów S j i A i (przypadkowo rozrzucone w pewnym obszarze, nie ulegają zmianom). Pary treningowe (S m,Y m ), Y m = ±1; sygnał wyjściowy R m = +1 dla > 0 próg wyjściowy g( ) – funkcja bipolarna daje A i = powyżej progu, A i = –1 poniżej.

7 Czego można je nauczyć? Przy aktywacji A k m dla sygnału wejściowego S m prawidłowa odpowiedź: Kiedy istnieje rozwiązanie? Wystarczy, by dla każdego obszaru asocjacji A(S i ) istniał element A i należący tylko do tego obszaru. Kładąc wszystkie W k = 0 oprócz mamy rozwiązanie; ale tylko dla problemów liniowo separowalnych. Zwykle przez perceptron rozumie się teraz jeden neuron z wieloma wejściami (bez jednostek S, bo tu nie ma adaptacji).

8 Uczenie perceptronów Jeśli rozwiązanie istnieje to korekcja błędów (reguła uczenia) je znajdzie: Chcemy by: Reguła delta

9 Uczenie perceptronów cd Ocena trudności uczenia: zdefiniujmy Jeśli D(W) > 0 to można nauczyć bez błędu. Najlepsza separacja, perceptron optymalny, gdy bo może być największe. Liczba kroków uczenia nie przekracza:

10 Perceptron dla M klas Reguła uczenia perceptronu: skończona liczba kroków sensowna generalizacja Granice decyzji perceptronu: dla klasy C i wyjście g i (X) Decyzja: max i g i (X), więc na granicy g i (X)=g j (X) Dla M klas jest M(M – 1)/2 granic; część jest redundantna. Obszary decyzyjne – zawsze wypukłe. Klasa C i, wymagane g i (X)= 1, g j (X)= 0 Niektóre obszary – niesklasyfikowane bo wszystkie g i (X)= 0 lub kilka g i (X)=1 Przykład: granice decyzji perceptronu dla 3 klas.

11 Elementy progowe Hiperpowierzchnia decyzyjna dla różnych neuronów: I(X), net – aktywacja; f(I) – funkcja wyjścia. Typowe nieliniowości – bipolarne i unipolarne funkcje sigmoidalne. Demonstracje NeuroSolution

12 Co dalej? Adatron i maksymalizacja margines. Sieci Hopfielda Sieci Hebbowskie i modele mózgu Samoorganizacja Perceptrony wielowarstwowe

13 Koniec wykładu 8 Dobranoc


Pobierz ppt "Inteligencja Obliczeniowa Perceptrony Wykład 8 Włodzisław Duch Katedra Informatyki Stosowanej UMK Google: W. Duch."

Podobne prezentacje


Reklamy Google