Pobierz prezentację
Pobieranie prezentacji. Proszę czekać
OpublikowałKorneliusz Gałęzowski Został zmieniony 11 lat temu
1
Wykład 14 Neuropsychologia komputerowa
Język Włodzisław Duch UMK Toruń Google: W Duch (c) Tralvex Yeap. All Rights Reserved
2
Modelowanie reprezentacji symbolicznych
Te same mechanizmy w mózgu, tylko inne wejścia. Poziomy przetwarzania: fonemy/sylaby, litery, słowa, pojęcia, frazy, zdania, sytuacje, historie. Rozproszone reprezentacje, wiele możliwości kombinacji licznych rep. W tych modelach uwzględniamy: rozproszony leksykon, ortografię, fonologie, semantykę. Uczenie czytania, dysleksje: rozpoznawanie znaków, mapowanie ortografii na fonologię (nietrywialne dla angielskiego); regularności i wyjątki, tworzenie zbyt regularnych czasów przeszłych. Reprezentacje semantyczne z kookurencji słów. Reprezentacje semantyczne na poziomie kształtu zdań. (c) Tralvex Yeap. All Rights Reserved
3
Podstawy biologiczne Sterowanie aparatem głosowym odpowiedzialne jest za prawidłową wymowę zgłosek. Za to sterowanie odpowiedzialny jest głównie ośrodek Broki w korze czołowej, a za analizę mowy górna kora skroniowa. Ośrodek Broki: rep. powierzchniowa, Wernickego: głęboka reprezentacja. (c) Tralvex Yeap. All Rights Reserved
4
Organizacja zgłosek Fonemy: spółgłoski i samogłoski, alfabet IPA.
4 wymiary charakteryzujące samogłoski, 3 pozycje języka i ust. Kodowanie: 7 pozycji dla przód/tył, 6 dla góra/dół, 4 dla reszty. Neuron uczy się prawdopodob. warunkowego, korelacji pomiędzy pożądaną aktywnością a sygnałami wejściowymi; optymalna wartość 0.7 osiągana jest szybko tylko przy małej stałej uczenia 0.005 Spółgłoski: 3 wymiary, Loc, Mnr, Vce. Kodowanie: 7 pozycji dla położenia (loc), 5 dla sposobu (Mnr), 2 dla Vce (dźwięczne). (c) Tralvex Yeap. All Rights Reserved
5
Pytania Spróbujemy za pomocą symulacji komputerowych znaleźć i
zweryfikować za pomocą modeli odpowiedzi na kilka pytań: Jakie procesy zaangażowane są w proces czytania? Dlaczego czasami zawodzą (dysleksja)? W jaki sposób czytamy znane słówka: cat, yacht, a w jaki wymyślone, np. nust, decydując się na jakiś sposób wymowy? Czemu dzieci mówią „I goed” zamiast „I went”? Skąd bierze się znaczenie słów? Jak od rozumienia słów przejść do rozumienia zdań? (c) Tralvex Yeap. All Rights Reserved
6
Rozproszony leksykon i dysleksje
Poziom fonologiczny dysleksji: nieistniejące słowa nie wzbudzają głębszych obszarów (Wernicke). Poziom głęboki: błędy fonologiczne i semantyczne (kąt – kot, kot - pies), pomyłki w rozpoznawaniu znaków. Dysleksja powierzchniowa: nowe słowa nie stanowią problemu ale brak dostępu do poziomu semantycznego + trudności w czytaniu wyjątków + pomyłki w rozpoznawaniu. Model czytania i dysleksji ma dwie drogi od ortografii do fonologii: bezpośrednią, wyuczoną (mapowanie) i okrężną, semantyczną. Rzadkie i trudne słowa wymawia się dzięki tej okrężnej drodze. (c) Tralvex Yeap. All Rights Reserved
7
Model czytania Projekt dyslex.proj
Sieć została wytrenowana wcześniej bo wymaga 250 epok. Trenowanie: przypadkowy wybór jednej z 3 warst (ortografia, fonologia, semantyka) jako wejścia, a pozostałych dwóch jako wyjścia, czyli mapowanie jednego aspektu na dwa inne. kWTA = 25% dla warstw ukrytych. Step: kolejne słowa, najpierw „tart” – niestety nie wymawia głośno … Dla LeabraCycleTest: kroki pokażą kolejność aktywacji sieci. BatchTestOutDat: słowa konkretne (Con) lub abstrakcyjne (Abs), trial_name = wejście, closest_name, rodzaj błędu. (c) Tralvex Yeap. All Rights Reserved
8
Słowa do czytania 40 słów, 20 konkretnych i 20 abstrakcyjnych; pobudzenia w modelu pokazują na dendrogramie podobieństwa fonologiczno-semantyczne. (c) Tralvex Yeap. All Rights Reserved
9
Symulacje dysleksji Dysleksje: w zależności od stopnia uszkodzenia i drogi uszkodzenia dostaniemy różne formy: dysleksje fonologiczną, głęboką i powierzchniową. LesionType = Semantics (10 typów) Wyłącza całą warstwę. Uśrednienia 25 przebiegów lezji. need, loan, flow, past => coat Hire i coat są najczęściej mylone. Ease => wage ??? Odległość fonologiczna od 0 do 1 miara cos(S1,S2) = S1*S2/|S1||S2| (c) Tralvex Yeap. All Rights Reserved
10
Lezje drogi semantycznej
Błędy w wyniku uszkodzenia drogi semantycznej SP_Hid lub OS_Hid, w funkcji rozległości lezji różnego typu. Błędy są prawie wyłącznie wzrokowe, np. deed=>need, hire=>hare, plea=>flea. (c) Tralvex Yeap. All Rights Reserved
11
Usunięcie drogi bezpośredniej
Błędy w wyniku uszkodzenia drogi semantycznej przy usuniętej drodze bezpośredniej, mało wzrokowych, więcej semantycznych, dysleksja głęboka. (c) Tralvex Yeap. All Rights Reserved
12
Lezje drogi bezpośredniej
Błędy w wyniku uszkodzeń drogi bezpośredniej bez uszkodzeń drogi semantycznej (Full Sem) i z całkowitym jej uszkodzeniem (No Sem); początkowo fonologiczna dysleksja (błędy wzrokowe), ale dla rozległych uszkodzeń więcej błędów semantycznych (dysleksja głęboka), problemy z fikcyjnymi słowami. (c) Tralvex Yeap. All Rights Reserved
13
Czytanie Reprezentacje nie są zlokalizowane w jednym regionie.
Oddziaływania prowadzą do ciekawego podziału pracy. Modele czytania: mapowanie ortografii na fonologie. Dwa zagadnienia: czy jeden system może się nauczyć wymowy regularnych słów i jednocześnie radzić sobie z wyjątkami? symulacja wymowy nieistniejących słów wymaga odkrycia subtelnych regularności wymowy. Mint, hint, flint => i wymawiane tak samo, ale w pint całkiem inaczej ... Regularności są często modyfikowane, zależne od kontekstu, mają skupienia (sąsiedztwa), a wyjątki są na krańcach takich modyfikacji. Regularności i wyjątki tworzą kontinuum. (c) Tralvex Yeap. All Rights Reserved
14
Model czytania Model ss.proj, roz. 10.4.2 7 bloków 3*9 = 189 wejść,
5*84 = 420 w ortografii, oraz 600 ukrytych, 7 bloków po 2*10 = 140 elementów fonologicznych. Kody słów: H=high freq R=regular I=inconsistent AM=ambiguous EX=exception L=low freq np: LEX = Low freq exception Wejście: słowa do 7 liter, dopełniane, np. best = bbbestt. To uproszczenie pozwala unikać sekwencji zależnych od czasu. (c) Tralvex Yeap. All Rights Reserved
15
Struktura sieci Bloki Ortho_code łączą się z trójkami liter na wejściu Ortho. Kodowanie niezmiennicze bez względu na pozycję; niektóre jednostki reagują na te same litery na różnych pozycjach, inne reagują na sekwencję, kodując wyuczone cechy złożone, jak V2 dla wzroku. Elementy warstwy ukrytej reagują na wszystkie wejścia (jak V4/IT). Te jednostki kodują regularności wymowy uwzględniając kontekst. Sieć uczy się reprezentacji pozwalających na generalizację, jak w modelu rozpoznawania obiektów, niezmienniczości i grupowania elem. Interpretacja wielu reprezentacji nie jest prosta, niektóre => ko-okurencji. Testy: słowa regularne i wyjątki (Glushko, 1979). Czy fikcyjne homofony słów wymawia się łatwiej? Listy słów fikcyjnych są dostępne (McCann & Besner, 1987). (c) Tralvex Yeap. All Rights Reserved
16
Regularności Testy regularności: lista Głuszko. PSMP = model Plauta.
Pseudo-homofony phyce => Choyce Czasy relaksacji sieci jako funkcja częstości i typowości słów. Jakość/szybkość czytania ludzi i programu wykazuje duże podobieństwa. 0 błędów jeśli uznać alternatywne sposoby wymowy. (c) Tralvex Yeap. All Rights Reserved
17
Czasy przeszłe Związek semantyki i fonologii Projekt pt.proj
Tendencje do regularyzacji zmieniają się w miarę dorastania i uczenia się nowych wyrazów. Początkowo trenowano najpierw na nieregularnych a potem regularnych, kontrowersyjne ale daje chaotyczną krzywą w kształcie U, bo użycie słów jest raz poprawne, a raz nie. Modele zmieniające stopniowo środowisko uczenia ale bez uczenia Hebbowskiego nie działają. (c) Tralvex Yeap. All Rights Reserved
18
Model w Leabra Sieć: semantyczne wejście, warstwa ukryta + fonologiczna. Dane: 389 czasowników, w tym 90 nieregularnych w czasie przeszłym, 4 możliwe końcówki regularne: -ed, -en, -s, -ing, razem 1945 przykłady. Kooperacja + konkurencja + uczenie Hebbowskie daje sieć, w której mapowanie czasowników reg. i niereg. osiąga dynamiczną równowagę. Torowanie po paru ekspozycjach zmienia zachowanie sieci. (c) Tralvex Yeap. All Rights Reserved
19
Model w Leabra Leabra na początku uczenia pamięta wyjątki a dopiero później przeregularyzowuje, by w końcu nauczyć się poprawnie. Tendencja do nadmiernej regularyzacji utrzymuje się długo, sieci BP nie modelują tego poprawnie. Response – właściwa fonologiczna wymowa. (c) Tralvex Yeap. All Rights Reserved
20
Sens słów Semantyka pojęć jest wynikiem korelacji aktywacji rozproszonych po wielu obszarach. Najprostszy model: silne korelacje Hebbowskie pomiędzy słowami, tak jak korelacje pomiędzy elementami obrazów czy fonemami tworzącymi sylaby. Latent Semantic Analysis (LSA), czyli rodzaj PCA, które da się realizować uczeniem z regułą Hebba. (c) Tralvex Yeap. All Rights Reserved
21
Quiz R.C. O'Reilly and Y. Munakata, Computational Explorations in Cognitive Neuroscience Understanding the Mind by Simulating the Brain. Cambridge, MA: MIT Press 2000. Training: Hebb correlations between words in the book, no understanding, purely associative. (c) Tralvex Yeap. All Rights Reserved
22
Network for answering quiz questions
Word => input activation, selection of 1920 words, plus 20x20=400 hidden elements sparesely connected to the input elements. Connections learned show mostly synonims: act, activation, activations. Similarity (or distance) between activation of hidden elements corresponding to presentation of words A and B is measured by cos(A,B) = A*B/|A||B| Several words may be shown to see correlation between phrases: A="attention" and B="competition”, cos(A,B)=0.37. Dodanie "binding” do “attention” daje cos(A+C,B)=0.49. Achieves 60-80% correct answers! (c) Tralvex Yeap. All Rights Reserved
23
Model nieco dokładniej
Słowa składają się z prostszych elementów, nie uwzględniliśmy morfologii, wtedy wejściowa warstwa mogłaby być prostsza. Sieć trenowana jest na uproszczonym tekście z książki, zostało 1920 wyrazów, usunięto bardzo rzadkie (<5x) i bardzo częste (the, and, it, his, can etc, cała lista usuniętych słów jest w sem_filter.lg.list. eccn_lg_f5.cln zawiera tekst po filtracji. Sieć nie pamięta szyku słów. Ukryte jednostki traktują słowa wejściowe jako cechy, które je definiują; aktywacja tych jednostek jest proporcjonalna do prawdopodobieństwa jednoczesnego pojawienia się słów w tym samym paragrafie; brakuje struktury pojęć, jest tylko statystyczna korelacja. Prezentacja jednocześnie kilku słów – efekty nie są addytywne, zwiększanie liczby słów daje niewielkie zwiększanie podobieństwa, brakuje hamowania by mogło się zmniejszyć. Czy da się zrobić sieć z literami, rzędu 100 jednostek wejściowych? (c) Tralvex Yeap. All Rights Reserved
24
Sens zdań Tradycyjne podejście: rozbiór gramatyczny zdań.
Alternatywne podejście: rozproszone reprezentacje, "gestalt" zdania. Podobnie jak w rozpoznawaniu obiektów 3D, nie ma centralnej reprezentacji. Mały światek potrzebny do zdefiniowania semantyki: zdania zwierające nazwy ludzi, aktywnych i pasywnych działań, obiektów i miejsc. Ludzie (role): busdriver, teacher, schoolgirl, pitcher. Działania: eat, drink, stir, spread, kiss, give, hit, throw, drive, rise. Obiekty: spot (the dog), steak, soup, ice cream, crackers, jelly, iced tea, kool aid, spoon, knife, nger, rose, bat (animal), bat (baseball), ball, ball (party), bus, pitcher, fur. Miejsca: kitchen, living room, shed, park. (c) Tralvex Yeap. All Rights Reserved
25
Przykłady zdań Struktura zdań jest prosta: agent (osoba) – działanie – przedmiot. Role lub cechy modyfikujące: ko-agent, miejsce, przymiotniki, odbiorca działania „dać”, instrument działania, przysłówek (gusto) (c) Tralvex Yeap. All Rights Reserved
26
Sieć i projekt Projekt sg.proj, opis 10.7.2
Wejście prezentuje słowa, zlokalizowane reprezentacje, w warstwie Encode tworzone są reprezentacje rozproszone, integrowane w czasie w warstwie Gestalt i Gestalt_Context, pytania wiążą się z rolami (agent, pacjent, instrument ...), sieć dekoduje reprezentacje dopełniając je (Filler). Np. bat (zwierze) i bat (pałka bejsbolowa) wymaga odróżnienia. (c) Tralvex Yeap. All Rights Reserved
27
Testy Przypisanie ról, dwuznaczność słów, przykłady stosowania pojęć, uszczegółowienie roli, rozstrzygnięcie konfliktów. Mały światek: zdania zwierające nazwy ludzi, aktywnych i pasywnych działań, obiektów i miejsc. (c) Tralvex Yeap. All Rights Reserved
28
Podobieństwo czasowników
Czasowniki jednoznaczne po wytrenowaniu sieci mają takie podobieństwa cosinusowe pobudzeń wewnętrznych. (c) Tralvex Yeap. All Rights Reserved
29
Podobieństwo rzeczowników
Rzeczowniki jednoznaczne po wytrenowaniu sieci mają takie podobieństwa cosinusowe pobudzeń wewnętrznych. (c) Tralvex Yeap. All Rights Reserved
30
Kształty zdań Podobieństwo przykładowych zdań: sc_ = schoolgirl
bu_ = busdriver te_ = teacher pi_ = pitcher _at = ate _dr = drank _st = stirred _so = soup _st = steak _ic = ice tea _ko = KoolAid (c) Tralvex Yeap. All Rights Reserved
31
Pytania/odpowiedzi dotyczące języka
Jakie procesy zaangażowane są w proces czytania i dlaczego czasami zawodzą (dysleksja)? Rozproszone reprezentacja leksykalne, interakcje między rozpoznawaniem znaków, poziomem pisowni (ortografia), fonologii i semantyki. W jaki sposób czytamy znane słówka: cat, yacht, a jak wymyślone, np. nust? Dzięki kontekstowo aktywowanym reprezentacjom dającym kontinuum pomiędzy regularnymi formami a wyjątkami. Czemu dzieci mówią „I goed” zamiast „I went”? Z powodu dynamicznej równowagi pomiędzy mapowaniem form regularnych i wyjątków. Skąd bierze się znaczenie słów? Statystyki ko-okurencji, oddziaływań z reprezentacjami danych ze zmysłów. Jak od słów przejść do zdań? Pozwala na to „gestalt zdań”. Jak zrobić model działający na większą skalę? (c) Tralvex Yeap. All Rights Reserved
Podobne prezentacje
© 2024 SlidePlayer.pl Inc.
All rights reserved.