Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Marcin Miłkowski. O czym będzie mowa Zasady analizy racjonalnej Andersona Reguła Bayesa Modele bayesowskie Kodowanie predykcyjne.

Podobne prezentacje


Prezentacja na temat: "Marcin Miłkowski. O czym będzie mowa Zasady analizy racjonalnej Andersona Reguła Bayesa Modele bayesowskie Kodowanie predykcyjne."— Zapis prezentacji:

1 Marcin Miłkowski

2 O czym będzie mowa Zasady analizy racjonalnej Andersona Reguła Bayesa Modele bayesowskie Kodowanie predykcyjne

3 Świat niepewności Nasze zmysły dostarczają informacje, w których jest dużo szumu (zakłóceń). Szum i niepewność wszędzie: złudzenia wzrokowe grzechy pamięci wieloznaczność języka

4 Probabilizm Procesy poznawcze opierają się na wnioskowaniu probabilistycznym. Percepcja, wnioskowanie dedukcyjne i indukcyjne, kategoryzacja, uczenie, rozumienie i tworzenie wypowiedzi…

5 Trzy poziomy Marra jeszcze raz Obliczeniowy (ekologiczny)Probabilistyczna charakterystyka zadania w ramach tzw. analizy racjonalnej Algorytmy i reprezentacjaAlgorytmy probabilistyczne operujące na reprezentacjach prawdopodobieństw ImplementacjaHipoteza mózgu probabilistycznego (zwykle bayesowskiego)

6 Probabilizm Korzenie: rachunek prawdopodobieństwa Bernoulliego Fizjologia: prace Helmholtza i hipoteza nieświadomego wnioskowania Współcześnie: bayesizm jako jeden z najważniejszych paradygmatów

7 Probabilistyczne wnioskowanie nieświadome Hermann von Helmholtz (1866): oczy nie wyczuwają kierunku wzroku, lecz przewidują go na podstawie tzw. kopii eferentnej, czyli kopii polecenia motorycznego do mięśni oka. Kopia eferentna to jeden z możliwych sposobów realizacji tzw. modeli wyprzedzających (forward models).

8 Bayesizm h – hipoteza p(h) – prawdopodobieństwo hipotezy H – przestrzeń hipotez p(h|d) – prawdopodobieństwo końcowe (posterior probability) p(h) – prawdopodobieństwo wstępne (prior probability); uwaga: nie a priori!

9 Racjonalne wnioskowanie statystyczne (Bayes, Laplace) Prawdopodobieństwo końcowe WiarygodnośćPrawdopodobieństwo wstępne Suma w przestrzeni wszystkich hipotez

10 Reguła Bayesa Prawdopodobieństwo końcowe Prawdopodobieństwo wstępne: Wiarygodność: Dla danych D i hipotezy H mamy:

11 Hipotezy we wnioskowaniu bayesowskim Hipotezy H to procesy, które mogły wygenerować dane D Wnioskowanie bayesowskie daje rozkład po tych hipotezach ze względu na D P(D|H) to prawdopodobieństwo wygenerowania D przez procesy wskazane przez H Hipotezy H wykluczają się wzajemnie: tylko 1 proces mógł wygenerować D

12 Analiza racjonalna wg Johna Andersona (1988) Przepis na wyjaśnianie w kognitywistyce: 1. Określ cele systemu poznawczego. 2. Opracuj model formalny środowiska, do którego przystosowany jest system. 3. Załóż minimalne koszty obliczeniowe. 4. Wyprowadź optymalną funkcję zachowania ze względu na Sprawdź empirycznie, czy predykcje funkcji są poprawne. 6. Jeśli nie, iteruj.

13 Krytyka analizy racjonalnej Herbert Simon (1988): Przepis Andersona pomija strukturę systemu poznawczego, analiza może dotyczyć tylko struktury środowiska. Ludzie nie są optymalni. Trudno znaleźć jeden cel systemu. J. Bowers i C. Davis (2012): To są takie sobie bajeczki! Modele bayesowskie dopasowują się do danych eksperymentalnych i nic nie wyjaśniają. Są płytkie.

14 Architektury poznawcze i Bayes Anderson jest twórcą architektur poznawczych (m.in. ACT-R), które zawierają reguły produkcji. Jego metoda dotyczy przede wszystkim poziomu obliczeniowego w sensie Marra. ACT-R łączy reguły symboliczne z sieciami neuropodobnymi.

15 Przykład 1: racjonalna analiza przeciwko heurystykom Gerd Gigerenzer i Daniel Goldstein (1996): Ludzie posługują się heurystykami, które są omylne, ale błyskawiczne. Przykład: heurystyka weź najlepszy, stosowana do określania, które miasto jest większe.

16 Dygresja: psychologia ewolucyjna Psychologia ewolucyjna korzysta z wariantu analizy racjonalnej. Bada przystosowanie do środowiska w czasach łowiecko-zbierackich. Krytykowana za często zbyt spekulacyjne wyjaśnienia. Wyjaśnia jednak fakty na temat gwałtów, skłonności do przemocy itp. Pinker: Jak działa umysł? – adwokat podejścia.

17 Algorytm Weź najlepszy (Take- the-Best) Jeśli znasz nazwę jednego miasta, a nie drugiego, pierwsze jest większe. Jeśli nie, to sprawdzaj cechy miast i jeśli którąkolwiek ma jedno, a nie drugie, jest większe. jest stolicą państwa, ma drużynę piłkarską, jest stolicą landu, ma uniwersytet…

18 Przykład Hanower czy Bielefeld? Moguncja czy Hamburg? Monachium czy Goerlitz?

19 Chater i Oaksford (2003) De facto stosuje się strategię racjonalną! Sukces w środowisku (efekt heurystyki) nie wyklucza racjonalności wg przepisu Andersona. Ludzie wcale nie muszą obliczać optymalnego (=zawsze poprawnego wyniku), wystarcza skuteczny algorytm. Na poziomie algorytmu jest aproksymacja wyniku poprawnego (czasem nieobliczalnego praktycznie).

20 Chater i Oaksford (2003) Weź najlepszy to algorytm zasadny ze względu na analizę racjonalną, bo prowadzi do poprawnego wyniku. Ale wcale nie jest pewne, że ludzie właśnie tę zasadę stosują.

21 Taka sobie bajeczka? Ale czy te argumenty nie znaczą, że bayesizm może przyswoić dowolną skuteczną strategię poznawczą jako własną? Może jest tylko opakowaniem cudzego produktu?

22 Przykład 2: rozumowania warunkowe Weźmy regułę: Jeśli ptak jest krukiem, to jest czarny. Przy założeniu, że Ćwirek jest krukiem, wynika, że jest czarny (MP). Przy założeniu, że Ćwirek nie jest czarny, wynika, że nie jest krukiem. (MT) Dlaczego modus ponens jest łatwiej przyjąć niż modus tollens?

23 Rozumowania warunkowe A co z rozumowaniami typu: Ćwirek nie jest czarny. A zatem nie jest krukiem? [odrzucenie poprzednika] Ćwirek jest czarny. A więc jest krukiem. [uznanie następnika] To błędy logiczne. Ale dlaczego są popularne?

24 Cztery reguły modus ponens p q p q modus tollens p q ~q ~p odrzucenie poprzednika p q ~p ~q uznanie następnika p q q p

25 Pomysł bayesowski Kluczowe równanie: p(pq) = p(q|p) Prawdopodobieństwo warunkowe to klucz do zrozumienia, dlaczego ludzie przyjmują chętnie niektóre wnioskowania mimo ich niepoprawności (lub odrzucają wbrew poprawności).

26 Prosty model Chatera i Oaksforda a = P(p) b = P(b) ϵ = P(~q|p) tj. wyjątek, czyli prawdopobieństwo ~q ze względu na p

27 Modele wnioskowań a empiria (a) – prosty model prawdopobieństwa warunkowego (b) – logika klasyczna (c) – zmodyfikowany model prawdopodobieństwa warunkowego (Oaksford i Chater 2008)

28 Logika klasyczna kontra bayesizm Błądzenie nie jest tak irracjonalne, jak wskazuje logika klasyczna. Czasem istotne jest też, czy same przesłanki są prawdopodobne. Ale czy logika normatywna musi być zawsze taka sama jak opisowa?

29 Mózg bayesowski Karl Friston (ur. 1959): hierarchiczne kodowanie predykcyjne, aproksymacja (?) trudnego obliczeniowo wnioskowania bayesowskiego mózg minimalizuje tzw. swobodną energię, czyli zaskoczenie nowymi informacjami

30 Teoria hierarchicznego kodowania predykcyjnego Mózgi przewidują przyczyny aktualnych wejść zmysłowych i minimalizują błędy takich przewidywań: zmieniając przewidywania na temat wejść zmysłowych lub zmieniając świat. Jednolita teoria percepcji i działania (A. Clark 2013).

31 Inne warianty Daniel Wolpert: mózg metodami bayesowskimi tworzy modele antycypacyjne, aby sterować ruchem, mózg mamy tylko po to, aby się poruszać.

32 Dlaczego trudno połaskotać samego siebie? Kiedy łaskoczemy siebie, przewidujemy efekt. Za pomocą robota możemy wprowadzić błąd predykcji.

33 Podsumowanie Bayesizm to bardzo żywa metodologia kognitywistyki. Zachowanie jako efekt racjonalnego wnioskowania probabilistycznego. Różne poziomy Marra, wiele zjawisk Wątpliwości: Czy w ogóle da się go obalić? Czy nie jest tylko innym sposobem opisu?

34 Do zobaczenia za tydzień!


Pobierz ppt "Marcin Miłkowski. O czym będzie mowa Zasady analizy racjonalnej Andersona Reguła Bayesa Modele bayesowskie Kodowanie predykcyjne."

Podobne prezentacje


Reklamy Google