Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Michał Białek Architektura umysłu.

Podobne prezentacje


Prezentacja na temat: "Michał Białek Architektura umysłu."— Zapis prezentacji:

1 Michał Białek Architektura umysłu

2 Shiffrin i Atrkinson – Model blokowy Generator reakcji Pamięć
długotrwała Rejestr sensoryczny Pamięc krótkotrwała Procesy kontrolne

3 Craik i Lockhart – poziomy przetwarzania
Płytki – sensoryczna analiza danych; Bardzo podatne na zapominanie Głębszy – semantyczna analiza danych Są bardziej odporne na zapominanie Głęboki - Aktywizacja skojarzeń związanych z wcześniej odebranym i przeanalizowanym materiałem

4 System modułowy Umysł składa się z :
Przetworników (pozyskiwanie energii) Systemów centralnych (wnioskowanie i tworzenie przekonań) Modułów (pośredniczenie między modułami a SC)

5 System modułowy Scholl i Leslie (1999), analizując dotychczasową literaturę dotyczącą zagadnienia modułowości, podają następujące cechy modułów: Bazują na określonym materiale wejściowym, są szczegółowego przeznaczenia (domain-specific) i realizują specyficzne dla nich procesy poznawcze (por. Chuderski, 2002), Działają automatycznie, nie całkiem zależnie od naszej woli (choć nie są całkowicie niezależne), Ze względu na swoją enkapsulację i automatyczność moduły są bardzo szybkie, Generują bardzo płytkie dane wyjściowe (output), które często są danymi wejściowymi (input) dla kolejnych modułów, Moduły mogą, a nawet powinny (por. Scholl, 1997) być zaimplementowane w wyspecjalizowane fragmenty architektury neuronalnej, Moduły, a zarazem realizowane przez nie funkcje, mogą być selektywnie osłabione w wyniku zmian czy uszkodzeń neurologicznych.

6 System modułowy Enkapsulacja
Niektóre z informacji wewnątrz modułu niedostępne są dla pozostałych modułów znajdujących się na zewnątrz a czasem informacje zewnętrzne niedostępne są danemu modułowi. Przykład pierwszego rodzaju podaje Pylyshyn (1997), który sądzi, że podczas procesu spostrzegania, we wczesnej jego fazie, pewien moduł tworzy reprezentację powierzchni (surface representation). Żaden inny moduł nie ma dostępu do samej komputacji, na podstawie której powstaje ten obraz, a jedynie do samego efektu końcowego.

7 System modułowy Enkapsulacja
Z drugiej strony system wizualny nie jest w stanie korzystać z informacji pochodzących z innych modułów. Klasycznym przykładem jest złudzenie Mullera-Leyera. Nawet jeśli człowiek przekona sam siebie, że odcinki na obrazku poniżej są równej długości, percepcja nadal płatać mu będzie figla, sugerując odcinek lewy jako dłuższy.

8 System modułowy Istotą modułów jest ich zależność od dziedziny oraz automatyczność Wyższe funkcje poznawcze są realizowane za pomocą uniwersalnego systemu prztwarzania

9 System modułowy Czy system centralny jest zmodularyzowany?
Hipoteza massive modularity Skąd biorą się u człowieka moduły, pełniące niezwykle skomplikowane funkcje poznawcze, ale niefunkcjonalne w międzyczasie, to znaczy przed osiągnięciem swojego ostatecznego kształtu?

10 Model Pandemonium Selfridge (1959) opracował Model Pandemonium. W modelu tym system stworzył ideę demona (analogia do neuronu), który wykonując banalną operację, zmienia swój stan na dodatni, ujemny bądź neutralny i przekazuje impuls kolejnemu demonowi. Demony, ułożone są w warstwy, zorganizowane w kształt piramidy. Każda kolejna warstwa zawiera coraz mniej elementów (na przykład o połowę). Cały układ Selfridge nazywa „chórem idiotów”, ze względu na maksymalnie proste funkcje realizowane przez każdego z demonów.

11 Model Pandemonium Rozpoznawanie liter odbywa się w tym modelu następująco: demony warstwy pierwszej reagują na docierające do nich z pola wzrokowego bodźce. Każdy demon pierwszego rzędu odpowiada za jeden punkt pola, po czym przekazują informację wyżej. Demon drugiej warstwy specjalizuje się w agregowaniu informacji od zespołu demonów pierwszego rzędu. Na przykład, jeżeli demony numer 1,2,3, z warstwy pierwszej przekazują taki sam komunikat, oznacza to, że wykrywają linię prostą. W efekcie demony warstwy 3 otrzymują następujące informacje: łuk, linia prosta, linia ukośna w prawo. Te agregują informacje od demonów drugiej warstwy łącząc je w całość litery. Aktywuje się kilka demonów poziomu trzeciego, odpowiedzialnych za litery, które powiązane są z podobnymi sygnałami, na przykład demon litery „P” (łuk, linia prosta), demon litery „Q” (dwa łuki, linia prawoskośna) i demon litery „R” (łuk, linia prosta, linia prawoskośna). Ponieważ łatwo zauważyć, która z liter spełnia najwięcej warunków, demon warstwy czwartej rozpoznaje ostatecznie właściwą literę, czyli „R”.

12 Model Pandemonium W tym modelu maksymalnie proste funkcje, pełnione przez demony zagregowane realizują złożony proces rozpoznawania liter. Analogiczną organizację przypisuje się neuronom w mózgu, które, same w sobie „głupie”, w dużych grupach realizują niezwykle skomplikowane funkcje. Mózg posiada nieskończenie niemalże złożoną strukturę, umożliwiającą realizację dowolnie skomplikowanych procedur. Definiowanie umysłu, jako urządzenia przetwarzającego informacje przy pomocy specjalnych reguł, zakodowanych w układach prostych wykonawców, nazywane jest komputacyjną koncepcją umysłu (KKU).

13 Sieciowe modele umysłu
Założenia: Przetwarzanie dokonuje się dzięki aktywności licznych i prostych jednostek Tworzą one sieć, która aktywizuje się w jednym czasie Poznanie jest równoległym i rozproszonym przetwarzaniem informacji

14 Sieciowe modele umysłu
j

15 Sieciowe modele umysłu
O tym, czy neuron j pobudzi neuron i decyduje: Aktywnośc j Waga połączenie ij Połączenie zwrotne Połączenia i innymi jednostkami wejścia

16 Uczenie się sieci koneksyjnej
Sieć jest tabula rasa Przekształcenie PSYCHOLOGIA NA RTZDIPMPHJB Informacja zwrotna (dobrze vs. źle) Gdy uda się przesłać z wejścia do wyjścia, to reakcja jest wyuczona Zdolność do samoorganizacji i samokontroli

17 Uczenie się sieci koneksyjnej
Według Tadeusiewicza (1998) do tego, aby proces samo-uczenia przebiegał efektywnie, konieczne jest zapewnienie w populacji neuronów niezbędnej początkowej różnorodności – to znaczy takiego ustawienia wag, aby mogły reagować na różne obiekty, a nie miały „identycznych wrodzonych zamiłowań” do pewnej grupy

18 Uczenie się sieci koneksyjnej

19 Uczenie się sieci koneksyjnej
Sztuczne neurony, zupełnie jak prawdziwe, reagują pobudzeniem, gdy widzą obiekt „podobający się im”, hamowaniem, gdy obiekt „im się nie podoba” oraz mogą mieć stosunek neutralny. Gdy umieścić cechy sygnałów oraz odpowiadające im wagi neuronów na płaszczyźnie, można zaobserwować mechanizm uczenia się (dostrajania wag). Podczas korekty wag reakcja każdego neuronu zależy od tego, jaka była wartość jego sygnału wyjściowego, którym odpowiedział on na pobudzenie. Jeśli sygnał wyjściowy neuronu był silnie pozytywny (na rysunku 2. czerwony) - wagi zmieniają się w taki sposób, że neuron „zbliża się” do punktu, który wywołał pobudzenie. Oznacza to, że jeśli ponownie zostanie pokazany ten sam punkt, to neuron odnotuje go jeszcze większą dodatnią wartością reakcji. Gdy natomiast pobudzenie jest negatywne (kolor niebieski), wagi dostrajane są tak, aby zwiększać swoje negatywne pobudzenie wywołane przez dany obiekt (ruch od sygnału).

20 Uczenie się sieci koneksyjnej

21 Uczenie się sieci koneksyjnej
Gdy neuron rejestruje obiekt odpowiadający jego wagom dostraja się tak, aby lepiej reagować na niego (na osi wykonuje on ruch w kierunku spostrzeganego obiektu).

22 Język myśli Wiedza zakodowana jest w postaci sądów
Student jest na zajęciach Jest na (student, zajęcia) Sądy można łączyć spójnikami logicznymi

23 Język myśli Za pomocą sądów można przedstawić każdy rodzaj informacji
Sądy przechowują głębokie znaczenie informacji

24 Teoria reprezentacji w formie sądów - Pylyshyn
Obiekty są reprezentowane nie samodzielnie, ale jako część twierdzenia o wzajemności relacji 2 obiektów

25 Pylyshyn Stwierdzenie co jest dalej od Gdańska – Wrocław czy Poznań
[leży na południe(Bydgoszcz;Gdańsk)] [leży na południe(Poznań; Bydgoszcz)] [leży na południe(Wrocław; Poznań)] Im więcej sądów tym czas decyzji dłuższy

26 Modele umysłowe – Johnson-Laird
Sytuacja problemowa przedstawiona jest jako model przy pomocy tokenów Jako podstawa utworzenia tokenu może służyć spostrzeżenie, wyobrażenia ślad pamięciowy

27 Modele umysłowe – Johnson-Laird
Modele umysłowe są nietrwała, tworzone ad-hoc Łatwość przechodniości relacji

28 Modele umysłowe – Johnson-Laird
Etapy rozumowania Wyobrażenie stanu rzeczy o których mowa w przesłankach Wyprowadzanie próbnych wniosków Budowa alternatywnych modeli, służących do falsyfikacji wyciągniętych wniosków

29 Każdy student jest bystry
Anna jest studentem Wiosek?

30 Tylko jedna z przesłanek jest prawdziwa!
W ręku gracza jest król albo as. W ręku gracza albo dama, albo as, albo obie karty W ręku gracza jest walet albo dziesiątka albo obie karty. Czy przeciwnik ma asa?


Pobierz ppt "Michał Białek Architektura umysłu."

Podobne prezentacje


Reklamy Google