Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Inteligencja Obliczeniowa Neurony logiczne Wykład 3 Włodzisław Duch Katedra Informatyki Stosowanej UMK Google: W. Duch.

Podobne prezentacje


Prezentacja na temat: "Inteligencja Obliczeniowa Neurony logiczne Wykład 3 Włodzisław Duch Katedra Informatyki Stosowanej UMK Google: W. Duch."— Zapis prezentacji:

1 Inteligencja Obliczeniowa Neurony logiczne Wykład 3 Włodzisław Duch Katedra Informatyki Stosowanej UMK Google: W. Duch

2 Co to takiego? Szybka Powtórka BCM, Najprostsza pamięć asocjacyjna Macierze korelacji Zastosowania: pamięć rozpoznawcza BAM, dwukierunkowa pamięć asocjacyjna. Rzut oka na dalsze wykłady

3 Szybka powtórka Inspiracje biologiczne Inspiracje, nie modelowanie Rys historyczny Możliwości i cele modelowania Ogólne własności modeli neuronowych Inteligentne zachowania Główne aspekty modeli neuronowych Reguła Hebba Inne reguły adaptacji Neurony progowe Modele synchroniczne i asynchroniczne. Separowalność i możliwości neuronów logicznych.

4 Pamięć autoasocjacyjna Autoasocjacja pozwala na dopełnianie wzorców rozpoznawanie uszkodzonych Reguła Hebba Wzmacniaj korelacje jednocześnie aktywnych Wystarczą binarne połączenia

5 Najprostsza pamięć autoasocjacyjna: BCM (Binary Correlation Matrix) Zapamiętaj wektory binarne i To samo na wejściu i wyjściu, 6 bitów. Macierz W ij = (x i x j,1) czyli W ij = x i x j

6 Macierz korelacji wejść i wyjść po pierwszym prezentowanym wektorze

7 Macierz korelacji wejść i wyjść po drugim wektorze

8 Działanie modelu BCM Czy znane? Suma kolumn A = W 2 + W 5 = Neuron logiczny (A; =2) = , znane! Czy znane? Suma kolumn A = W 2 + W 4 = Neuron logiczny (A; =2) = , nieznane! Obliczanie aktywacji jest równoważne obliczeniu funkcji progowej (W X - ) Obniżenie progu pozwala na identyfikację prawie znanych wektorów, a więc generalizację nauczonych faktów.

9 Cechy binarnej pamięci autoasocjacyjnej 1.Zdolność do rozpoznawania uszkodzonych wzorców – adresowalność kontekstowa. 2.Czas nie zależy od liczby zapamiętanych wzorców. 3.Uszkodzenie części macierzy połączeń nie prowadzi do zapomnienia konkretnych wzorców - brak lokalizacji. 4.Interferencja (mylenie się) dla podobnych wzorców jest częstsza niż dla wzorców odmiennych. 5.Przepełnienie pamięci (macierzy wag) prowadzi do chaotycznego zachowania.

10 Wnioski Nawet najprostszy model sieci neuronowej zachowuje się podobnie do pamięci asocjacyjnej człowieka! Sekret inteligencji – połączenia, skojarzenia, rozproszone przetwarzanie + ? Argumenty dualistów – umysł jest tylko odbiornikiem pozaświatowej rzeczywistości – nie mogą być słuszne – skrajnie proste modele dają coś umysłopodobnego.

11 Przykład zastosowania BCM: pamięć rozpoznawcza. ŸCzy dane słowo istnieje w słowniku? Kodowanie: (litera, pozycja) zamiast bitów na wejściu. 35 liter języka polskiego. Wyraz (l 1,l 2,... l N ) => ciąg ( ) Dlaczego nie kod ASCII (7 bitów)? Wyrazy do 20 liter, 7 bit.literę, wyraz < 140 bitów. Macierz korelacji =19600 b = 2450 B= 2.4 KB! Czy można tak zakodować dowolnie duży słownik?

12 Pamięć rozpoznawcza. Dla zbyt wielu słów i gęstego kodowania Macierzy korelacji ma same 1. p(b i = b j =1) a więc W(i,j)=1. Efekt: każdy wyraz będzie kojarzony z wyrazem złożonym z samych liter o nieistniejącym dla litery alfabetu kodzie Dlatego kodowanie w oparciu o 35-bitowe litery ma w stosunku do kodowania binarnego liter pewne zalety.

13 Pamięć rozpoznawcza - cd. Jeśli W(i,j)=1 to dla ciągu A z n bitów zawsze (A; =n) = , same znane wyrazy! Kodowanie rzadkie może tego uniknąć. Kod temperaturowy, 35-bitów na literę. Wymiar macierzy W zależy od kodowania. 35 liter, max. 20-liter, 20×35= Bitów < 60 KB, nadal niewiele. Interesujące korelacje: bliskie litery, dla dalszych brak korelacji. Duży słownik: litery (1,5) wszystkie możliwe, więc W(l 1,l 5 )=1

14 Pamięć rozpoznawcza - cd. Macierz dla sieci po prezentacji 2 wyrazów: aba i cab.

15 Pamięć rozpoznawcza - cd. Brak informacji w odległych połączeniach – można je usunąć. Ograniczenia topologii sieci: tylko lokalne połączenia, np. liter oddalonych o 3 jednostki. Efekt: blokowa struktura macierzy W.

16 Pamięć rozpoznawcza - cd. Struktury wyższych rzędów: kombinacje lub fragmenty wyrazów. F. lokalna N(l) = {b i }, znak => ciąg bitów, np. N(l) = ( ) F. nielokalna N(l k ;l k-1 ;l k+1...) = {b i }, np. N S (l) = (0, N(l)) dla liter l z podzbioru S N S (l) = (N(l), 0) dla pozostałych liter l. Kodowanie k-literowych kombinacji W k Możliwości kodowania: od gęstego do rzadkiego: binarne log 2 (N lit ) k do (N lit ) k bitów/k-liter

17 Pamięć rozpoznawcza - słownik. Używając korelacji par, trójek, fragmentów tworzymy pamięć rozp. Jak najmniejsza macierz korelacji, jak najmniej błędów. Przykład: słownik na macierzy korelacji + generator nowych słów. Pary liter, kodowanie temperaturowe. Wyłapuje literówki, ale rozpoznaje nieistniejące wyrazy. argulacać argulachać argulachny argulach argulacja argula argultacja argultacji argultacjonalny argultacjonność argultarzać argultarzały argultarz argultar argultat argultać argultałcać argultałca argultałcencja argultałceniel argultałcenie argultałcent argultał argulta argumeniać argumenia argumenictwo argumeniczać argumeniczny argumeniczy argumenieć argumenie argumenika argumenik argumenić argumeni argumentacja argumentacje argumenta argument argumiadać argumiad argumialenie argumialenio argumialent argumialeć argumialiwić argumializować argumialność

18 Pamięć rozpoznawcza - szukanie. Heteroasocjacja i inne możliwości kodowania: wyraz => alfabetycznie uporządkowany ciąg liter, np. "alfabet - aabeflt" "alfabet - (al)(lf)(fa)(ab)(be)(et)" lub posortowane "alfabet - (ab)(al)(be)(et)(fa)(lf)" Przykład: szukanie zbiorów na dysku. Liczy ile par liter się zgadza i pokazuje nazwy zbiorów przy różnych progach zgodności dopuszczając coraz więcej pomyłek, od najwyższego progu. Np.: NTWIN =>WINNT; PROAMI => AMIPRO

19 CMM, Correlation Matrix Memory Kohonen 1972, CMM (Correlation Matrix Memory) lub ACMM (AutoCorrelation Matrix Memory). Heteroasocjacja (X (k),Y (k) ), np. nazwa obraz. Macierz korelacji: Zapamiętuje asocjacje; dla ortogonalnych Y dostaniemy z obrazu nazwę lub odwrotnie:

20 CMM cd. CMM można tworzyć iteracyjnie minimalizując błąd: Efekty pamięci krótkotrwałej – nowe wzorce są lepiej pamiętane. Dla autoasocjacji chcemy WX (k) = X (k), czyli wektory X to wektory własne macierzy W do wartości wł. =1 X + to macierz pseudoodwrotna; XX + X=X, X + XX + =X + X + X i XX + to macierze Hermitowskie. Zmiana wag prop. do błędu i danych wejściowych (reguła delta)

21 BAM: pamięć dwukierunkowa Bi-directional Associative Memory, Kosko 1987 Model pamięci asocjacyjnej: Czas rozpoznania nie powinien zauważalnie rosnąć wraz z liczbą nowych struktur. Struktury lekko zniekształcone powinny być również rozpoznawane jako znane. Obraz X – np. matryca 8x8; nazwa Y – znaki ASCII (ciągi bitów). Algorytm iteracyjny: wzorce binarne 0, 1; wagi pobudzające i hamujące 0, ±1, przy prezentacji wektorów (X,Y) zmiana: W ij (X,Y) = 2 (X i,Y j )-1

22 Tworzenie BAM: Tworzenie macierzy wag Przykład: (X 1,Y 1 ) =(011101, 1100), (X 2,Y 2 ) =(100100, 1010), końcowe W

23 BAM: odtwarzanie nazwy Przykład: (X 1,Y 1 ) =(011101, 1100), (X 2,Y 2 ) =(100100, 1010). ((X 1,X 2 ) T W) = (Y 1,Y 2 )

24 BAM: odtwarzanie obrazu Przykład: (X 1,Y 1 ) =(011101, 1100), (X 2,Y 2 ) =(100100, 1010). (W. (Y 1,Y 2 )) = (X 1,X 2 ), ale czasami potrzebne są iteracje.

25 BAM: algorytm 1.Zeruj W, X, Y 2.Wczytaj X, Y dla kolejnego skojarzenia 3.Uczenie: W(i,j) = W(i,j) - 1 if A(i).xor.B(j) else W(i,j) = W(i,j) Jeśli są jeszcze skojarzenia do nauczenia wróć do p. 2. Odtwarzanie: wczytaj X 6.Iteruj z X do Y: Y(j)=1 jeśli suma X(i)*W(i,j) > 0, w przeciwnym przypadku Y(j)=0 7.Iteruj z Y do X: X(i)=1 jeśli suma Y(j)*W(i,j) > 0, w przeciwnym przypadku Y(i)=0 Powtarzaj 6 i 7 aż ustaną wszelkie zmiany.

26 Dlaczego BAM działa? - funkcja progowa neuronu; wektory o wartościach 0,1 Znany wzorzec na wejściu da: Drugi człon (przesłuch) zwykle jest zwykle mały, dla wektorów ortogonalnych równy zero – wtedy po 1 iteracji mamy zbieżność.

27 Dlaczego BAM działa? Cd. Można zdefiniować funkcję typu energii: W czasie iteracji funkcja ta musi maleć, osiągając minimum. Niech po prezentacji Y wektor X zmieni się o X, gdzie X j = +1 tylko jeśli I j = (WY) j > 0, lub X j = 1 tylko jeśli I j = (WY) j < 0 Zmiana X j ma ten sam znak co I j. Pojemność BAM: niewielka, mniej wzorców niż min długości X, Y

28 Przykład działania BAM Program BAM: Obrazy: 100 bitów, 10 x 10 elementów, litery, cyfry. Nazwy: 7 bitów Szum dodawany do wag – sprawdza odporność na uszkodzenia. Zbieżność: kilka iteracji. Podobieństwo obrazów lub nazw psuje zapamiętywanie. Czy mogą się pojawić cykle?

29 Skojarzenia Chociaż sieci oparte na korelacjach są najprostszymi biologicznie inspirowanymi modelami mogą opisywać procesy zachodzące w korze. Korelacyjna teoria działania kory Hecht-Nielsena (2003) Tokeny: elementarne ruchy, cechy, sylaby, słowa. Przewidujemy słowo na pozycji 5 znając 4 poprzedzające słowa. Każdemu przypisujemy p(i k |j), a za końcowe j wybieramy max p(j), każde obliczane metodą najsłabszego ogniwa.

30 Co dalej? Sieci bez wag Inne proste modele binarne Sieci Hopfielda Sieci Hebbowskie i modele mózgu Perceptrony proste Perceptrony wielowarstwowe

31 Koniec wykładu 3 Dobranoc


Pobierz ppt "Inteligencja Obliczeniowa Neurony logiczne Wykład 3 Włodzisław Duch Katedra Informatyki Stosowanej UMK Google: W. Duch."

Podobne prezentacje


Reklamy Google