Sekwencje Jak modelować relacje i sekwencje słów?

Slides:



Advertisements
Podobne prezentacje
Włodzisław Duch Katedra Informatyki Stosowanej,
Advertisements

Generatory i Przerzutniki
Sieć jednokierunkowa wielowarstwowa
SIECI NEURONOWE Sztuczne sieci neuronowe są to układy elektroniczne lub optyczne, złożone z jednostek przetwarzających, zwanych neuronami, połączonych.
Inteligencja Obliczeniowa Metody oparte na podobieństwie do wzorców.
SZTUCZNE SIECI NEURONOWE
Inteligencja Obliczeniowa Sieci dynamiczne cd.
Inteligencja Obliczeniowa Indukcja reguł - modele.
Inteligencja Obliczeniowa Otwieranie czarnej skrzynki.
Katedra Informatyki Stosowanej UMK
Katedra Informatyki Stosowanej UMK
Uczenie konkurencyjne.
Samoorganizacja: uczenie bez nadzoru.
Inteligencja Obliczeniowa Sieci dynamiczne.
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Inteligencja Obliczeniowa Sieci o zmiennej strukturze.
Inteligencja Obliczeniowa Perceptrony
Wykład 3 Neuropsychologia komputerowa
Sztuczne sieci neuronowe
Sztuczna Inteligencja Reprezentacja wiedzy II
Rozpoznawanie Twarzy i Systemy Biometryczne, 2005/2006
Organizacja pamięci: struktury, procesy, systemy
Wykład 15 Neuropsychologia komputerowa
Zastosowanie pamięci semantycznej we wspomaganiu decyzji medycznych
Pamięć semantyczna Część pamięci długotrwałej, w której przechowuje się podstawowe znaczenie słów i pojęć.
Symulacje własności pamięci biologicznej.
Czy potrafimy obliczyć wartość wyjścia sieci znając wartości jej wejść? Tak, przy założeniu, że znamy aktualne wartości wag i progów dla poszczególnych.
Metody Sztucznej Inteligencji w Sterowaniu 2009/2010 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania.
Mirosław ŚWIERCZ Politechnika Białostocka, Wydział Elektryczny
Sieci Hopfielda.
Sztuczne sieci neuronowe (SSN)
Funkcja i jej zaburzenia Maciej Kopera
formalnie: Budowa i zasada funkcjonowania sztucznych sieci neuronowych
Układy sekwencyjne pojęcia podstawowe.
Systemy wspomagania decyzji
Sztuczne Sieci Neuronowe
Komputerowe Wspomaganie w Inżynierii Materiałowej
Wspomaganie decyzji nie zwalnia od decyzji...
Detekcja twarzy w obrazach cyfrowych
Uczenie w Sieciach Rekurencyjnych
Universalne Modele Uczenia - Cwiczenia
Systemy wspomagania decyzji
Szereg czasowy – czy trend jest liniowy?
Modelowanie i Identyfikacja 2011/2012 Metoda propagacji wstecznej Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów Sterowania 1 Warstwowe.
Pamięć deklaratywna: semantyczna i epizodyczna
Czytanie ze zrozumieniem
Uczenie się, pamięć , wyższe czynności nerwowe
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
Instytut Zarządzania – Państwowa Wyższa Szkoła Zawodowa
Algorytm kaskadowej korelacji
Warstwowe sieci jednokierunkowe – perceptrony wielowarstwowe
Metody sztucznej inteligencji – technologie rozmyte i neuronoweReguła propagacji wstecznej  Dr hab. inż. Kazimierz Duzinkiewicz, Katedra Inżynierii Systemów.
© Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania Modelowanie i podstawy identyfikacji 2015/2016 Modele neuronowe – podstawy,
GeneracjeTechnologia Architektura przetwarzania 0. Przekaźniki elektromechaniczne 1. Lampy elektronowe 2. Tranzystory 3. Układy scalone 3.5.Układy dużej.
Sieci dynamiczne Sieci Neuronowe Wykład 16 Włodzisław Duch Uniwersytet Mikołaja Kopernika Google: W. Duch.
Belief Nets Autor: inż. 2013r źródło tła:
Machine learning Lecture 6
Inteligencja Obliczeniowa Perceptrony o dużym marginesie błędu
Learnmatrix, Adaline, Madaline i modele liniowe
Systemy neuronowo – rozmyte
Samoorganizacja: uczenie bez nadzoru
Kognitywne właściwości sieci neuronowych
Perceptrony o dużym marginesie błędu
Wstęp do Informatyki - Wykład 6
Perceptrony o dużym marginesie błędu
Nauka czytania. Metoda Glenna Domana.
Systemy Ekspertowe i Sztuczna Inteligencja trudne pytania
Zajęcia dodatkowe AKADEMIA UMYSŁU Ćwiczenie koncentracji ZESTAW nr 3
Inteligencja Obliczeniowa Perceptrony
Katedra Informatyki Stosowanej UMK
Zapis prezentacji:

Sekwencje Jak modelować relacje i sekwencje słów? Inteligentne Systemy Autonomiczne Sekwencje Jak modelować relacje i sekwencje słów? W oparciu o wykład Prof. Geoffrey Hinton University of Toronto oraz Prof. Włodzisława Ducha Uniwersytet Mikołaja Kopernika Janusz A. Starzyk Wyższa Szkoła Informatyki i Zarządzania w Rzeszowie

Jak przedstawiać wagi połączeń Oczywisty sposób to zaznaczyć wartości numeryczne połączeń: Spróbuj pokazać 25,000 wag w ten sposób! Lepiej pokazać wagi jako białe i czarne kwadraty na wejściach neuronów warstw ukrytych Lepsze wykorzystanie pikseli Łatwiej rozpoznać kształty ukryty 1 2 +0.8 +3.2 -1.5 wejście ukryty 1 ukryty 2

Przykład relacji Christopher = Penelope Andrew = Christine Margaret = Arthur Victoria = James Jennifer = Charles Colin Charlotte Utwórz zbiór stwierdzeń używając 16 relacji: Syn, córka, siostrzeniec, siostrzenica, bratanek, bratanica Ojciec, matka, wujek, ciotka, stryjek, stryjenka Brat, siostra, maz, zona

Inny sposób przedstawienia tej informacji Christopher = Penelope Andrew = Christine Margaret = Arthur Victoria = James Jennifer = Charles Colin Charlotte Możemy te relacje przedstawić w postaci ciągów uporządkowanych czwórek (ojcem colina jest james) (matka colina jest victoria) (zona jamesa jest victoria) wynika z dwóch poprzednich (bratem charlotte jest colin) (bratem victorii jest arthur) (wujkiem charlotte jest arthur) wynika z dwóch poprzednich

Struktura sieci neuronowej Lokalny kod osoby 2 wyjście Nauczony rozproszony kod osoby 1 Jednostki które uczą się cech wyjścia na podstawie cech wejścia Nauczony rozproszony kod osoby 1 Nauczony rozproszony kod relacji Lokalny kod osoby 1 Lokalny kod relacji wejścia

Podstawowy problem w rozpoznawaniu mowy Nie możemy rozpoznać zgłosek w zaszumionej mowie Wejście akustyczne jest często wieloznaczne: kilka rożnych slow całkiem dobrze pasuje do jednego sygnału akustycznego. Ludzie wykorzystują rozumienie znaczenia wyrażenia żeby słyszeć właściwe słowo. Robimy to podświadomie Robimy to dobrze Oznacza to ze programy rozpoznawania mowy muszą wiedzieć które słowa najprawdopodobniej padną a które nie. Czy można to robić bez pełnego zrozumienia?

Standartowa metoda “trójek” Weź olbrzymia ilość tekstu i policz częstość wszystkich trójek słów. Potem użyj te częstości żeby przewidzieć następne słowo w ciągu a b ! Do niedawna metoda ta była “state-of-the-art”. Nie możemy użyć większego kontekstu ponieważ jest zbyt wiele czwórek Musimy cofnąć się do dwójek jeśli ilość trójek jest zero.

Dlaczego model trójek jest durny? Przypuśćmy że widzieliśmy zdanie “kot został zgnieciony w ogrodzie w piątek” Powinno to nam pomóc przewidzieć słowa w zdaniu “pies został rozpłaszczony na podwórku w poniedziałek” Model trójek nie rozumie podobieństwa między Kot/pies zgnieciony/rozpłaszczony ogród/podwórko piątek/poniedziałek Żeby przezwyciężyć to ograniczenie, potrzebujemy użyć cech poprzednich słów żeby przewidzieć cechy następnych słów. Używając reprezentacje cech i wyuczony model jak poprzednie cechy przewidują przyszłe, możemy użyć dużo słów i zależności wyuczonych w przeszłości.

Siec neuronowa Bengio do przewidywania następnych slow jednostki Softmax (jedna na każde słowo) wyjście Opuszczone polaczenia warstw Jednostki które uczą się przewidywać słowa wyjściowe na podstawie cech słów wejściowych Wyuczony rozproszony kod słowa t-2 Wyuczony rozproszony kod słowa t-1 Look-up table Look-up table wejścia Index słowa dla t-2 Index słowa dla t-1

Uczenie sekwencji w jednostkach LTM Podstawowa jednostka Long Term Memory (LTM)

LTM z naciskiem na pierwsza i ostatnia zgłoskę Używa zmodyfikowanych wag połączeń sprzężenia zwrotnego Większa tolerancja na częściowe przestawienia

LTM z naciskiem na pierwsza i ostatnia zgłoskę Typoglycemia - Wystarczy ze wyraz zawiera konieczne litery a pierwsza i ostatnia litera są na swoich miejscach, czytelnik z niewielkim wysiłkiem może przeczytać tekst. Śrewinoideczni walynaczy csętzo buwadoli maynszy pobndoe jak "rboot Leonarda", wynokujcąe okrelośne czonnyści, tikae jak zymanakie i oratwienie dwrzi, winatie wdząchocych gśoci itp. Udząrzenia tikae bawoduno do zawabainia wdcałów. Piommo iż nie zanno wdety elecznoktryści, zduwabono welie medloi poszuranych ergneią wdoy, słią cężiśokci czy engerią zmazygwaanoną w spęryżnach.

Powstawanie trwałej pamięci 1. Obserwacja wejścia 2. Aktywizacja sygnałów hipokampa 3. Aktywizacja pamięci średnioterminowej 4. Powstanie pamięci trwalej

Model amnezji Aktywizacja sygnałów hipokampa Aktywizacja sygnałów kory Układ neuromodulacji reguluje plastyczność hipokampa i kory. Pamięć średnioterminowa zapisana jest w sieciach hipokampa. Pamięć trwała jest rezultatem stanów atraktorowych minikolumn kory mózgu, zapisana jest więc w synapsach.

Amnezja wsteczna Główna przyczyna: utrata łączy do kory. Objawy: gradienty Ribota czyli im starsze wspomnienia tym lepiej pamiętane.

Amnezja następcza Główna przyczyna: uszkodzenie systemu neuromodulacji. Wtórnie: utrata łączy z korą. Objawy: Brak możliwości zapamiętania nowych faktów.

Amnezja semantyczna 1. Dużo mniej połączeń asocjacyjnych w korze 2. Aktywizacja sygnałów hipokampa 3. Uczenie poważnie utrudnione 4. Nie powtarzanie powoduje utratę pamięci Główna przyczyna: uszkodzenie łączy wewnątrzkorowych. Objawy: Trudności w znajdowaniu słów, rozumieniu, zapamiętanie nowych faktów, wymaga ciągłego powtarzania.