Dr hab. Marcin Miłkowski

Slides:



Advertisements
Podobne prezentacje
Włodzisław Duch Katedra Informatyki Stosowanej,
Advertisements

Wprowadzenie w problematykę związaną z twierdzeniem Gödla
Instrukcje - wprowadzenie
Sztuczna Inteligencja Reprezentacja wiedzy I Logika przybliżona
Struktura problemu decyzyjnego
Badania operacyjne. Wykład 2
Sztuczna Inteligencja Reprezentacja wiedzy II
ZŁOŻONOŚĆ OBLICZENIOWA
Teoria równowagi ogólnej (1874)
„Czym jest to co zwiemy nauką”
Sztuczna Inteligencja Reprezentacja wiedzy I Wstęp. Włodzisław Duch Katedra Informatyki Stosowanej UMK Google: W. Duch.
Dr Anna Kwiatkowska Instytut Informatyki
Jak być koherentnym pragmatycznym realistą
WSTĘP DO GEOGRAFII FIZYCZNEJ SYSTEMOWY OBRAZ PRZYRODY - MODELE
Bramki Logiczne.
ALGORYTMY.
Ceteris Paribus Prezentacja zaliczeniowa „Metodologia Ekonomii”
POJĘCIE ALGORYTMU Pojęcie algorytmu Etapy rozwiązywania zadań
Algorytmy.
Podstawy układów logicznych
Obserwatory zredukowane
Stabilność Stabilność to jedno z najważniejszych pojęć teorii sterowania W większości przypadków, stabilność jest warunkiem koniecznym praktycznego zastosowania.
Paradoksy logiczne i inne 4 marca 2010.
Marcin Miłkowski Wstęp do kognitywistyki Symulacje, obliczenia i modelowanie: Chiński pokój.
Argumentacja jako proces poznawczy
Marcin Miłkowski Wstęp do kognitywistyki Rola eksplanacyjna reprezentacji. Debata na temat wyobrażeń.
Teoria sterowania 2011/2012Stabilno ść Kazimierz Duzinkiewicz, dr hab. in ż. Katedra In ż ynierii Systemów Sterowania 1 Stabilność Stabilność to jedno.
Algorytmy.
Finanse 2009/2010 dr Grzegorz Szafrański pokój B106 Termin konsultacji poniedziałek:
Podstawowe informacje o maturze dla gimnazjalistów.
Relacje psychofizyczne, mind – body problem
istotne cechy kryterium:
Intuicjonizm etyczny George’a E. Moore’a
SYSTEMY EKSPERTOWE I SZTUCZNA INTELIGENCJA
Politechniki Poznańskiej
Dr hab. Marcin Miłkowski, prof. IFiS PAN. Plan wykładu  Argument z wielorakiej realizacji  Odmiany funkcjonalizmu:  maszynowy,  empiryczny,  zdroworozsądkowy…
Obliczalność czyli co da się policzyć i jak Model obliczeń maszyna licznikowa dr Kamila Barylska.
Marcin Miłkowski. O czym będzie mowa  Czym są modele w kognitywistyce?  Pluralizm eksplanacyjny: interdyscyplinarność kognitywistyki  Przykład otwartych.
Reprezentacje oparte na podobieństwie
Modelowanie Kognitywne
Algorytmy- Wprowadzenie do programowania
 Inaczej określana mianem teorii ekwiwalentnego związku przyczynowego (równowartości przyczyn),  Opiera się na założeniu, że skutek stanowi sumę przyczyn,
Rozwój technologii komputerowych w świetle filozoficznej refleksji nad nauką i techniką Dr Mariusz Szynkiewicz UAM w Poznaniu Zakład Filozofii Nauki
ZJAWISKO FOTOELEKTRYCZNE ZEWNĘTRZNE Monika Jazurek
DONALD N. McCloskey Retoryka w Ekonomii by Maciej Dorociak.
Metodologia ekonomii Zajęcia 3 Wstęp do filozofii nauki – ważne pojęcia Dominika Milczarek.
Rola filozofii w kognitywistyce i kognitywistyki w filozofii
Czym jest to co zwiemy nauką A. Chalmers, rozdziały I-III
Zajęcia 3 Wstęp do filozofii nauki – ważne pojęcia
ZPT f Gate ArrayStandard Cell Programmable Logic Devices PAL, PLA 1 Omówione do tej pory metody syntezy dotyczą struktur bramkowych… Dekompozycja funkcji.
ZDANIE.
ZPT 1 Dekompozycja nierozłączna Pojęcie r - przydatności Dekompozycja zrównoważona Dekompozycja równoległa.
GeneracjeTechnologia Architektura przetwarzania 0. Przekaźniki elektromechaniczne 1. Lampy elektronowe 2. Tranzystory 3. Układy scalone 3.5.Układy dużej.
Testy nieparametryczne – testy zgodności. Nieparametryczne testy istotności dzielimy na trzy zasadnicze grupy: testy zgodności, testy niezależności oraz.
Departament Polityki Regionalnej Wyniki badania ewaluacyjnego: „Ocena systemu kryteri ó w wyboru projekt ó w zastosowanych w Regionalnym Programie Operacyjnym.
Algorytmy, sposoby ich zapisu.1 Algorytm to uporządkowany opis postępowania przy rozwiązywaniu problemu z uwzględnieniem opisu danych oraz opisu kolejnych.
Cz. Nosala (1979, 1993) koncepcja problemu i ich podziału (taksonomii) Każda sytuacja poznawcza ukierunkowana na osiągnięcie jakiegoś celu zawiera następujące.
Elementy cyfrowe i układy logiczne
Rola filozofii w kognitywistyce i kognitywistyki w filozofii
Problem umysł-ciało (mind-body problem)
Podstawowe rodzaje modeli rozmytych
Zmiany w programie kierunku Kognitywistyka
Teoria sterowania Wykład /2016
Rekonstrukcja argumentu
Wstęp do Informatyki - Wykład 6
Funkcjonalizm i jego odmiany. Analiza funkcjonalna i mechanicyzm
* PROCESÓW TECHNOLOGICZNYCH
…czyli nie taki diabeł straszny
POJĘCIE ALGORYTMU Wstęp do informatyki Pojęcie algorytmu
Reprezentacje oparte na podobieństwie
Zapis prezentacji:

Dr hab. Marcin Miłkowski komputacjonizm

Algorytm na dziś Komputacjonizm: intuicja funkcjonalistyczna Argument Searle’a i Putnama: czy komputacjonizm cokolwiek głosi? Na czym polega wyjaśnianie obliczeniowe? Ograniczenia wyjaśnień obliczeniowych i sztucznej inteligencji

Umysł jest jak komputer… Może umysł jest jak oprogramowanie, a mózg jak komputer, który je wykonuje? Bardzo chwytliwe wśród filozofów, ale na pewno dosłownie nieprawda. Umysł nie ma architektury komputera von Neumanna, bo nie znajdziemy w nim dwóch podstawowych jednostek ani czegoś, co wygląda na niekontekstowe instrukcje.

Czy mózgi są pod jakimś względem podobne do komputerów? ≈ ?

Metafora komputerowa Ponieważ trudno podać kryteria adekwatności wyjaśnienia obliczeniowego, często mówi się o metaforze komputerowej W historii znamy wiele takich metafor: zegar, hydraulika u Freuda, centrala telefoniczna… ALE: nie wiadomo, pod jakimi istotnymi względami mózgi mają przypominać komputery

Metafora komputerowa Teza staje się mętna i niesprawdzalna ≈ ?

Komputacjonizm dosłowny Idea funkcjonalistów: Nie liczy się biologiczny materiał mózgu, ale to, co jest w stanie zrobić. Mózg jest przede wszystkim przetwornikiem informacji, bo to jest jego funkcja. Potencjalnie jest więc równoważny pewnemu komputerowi. Można więc wyjaśnić działanie umysłu, modelując go jako pewnego rodzaju komputer.

Argument Searle’a Wg Searle’a ta ściana implementuje program WordStar™. Searle argumentuje, że obliczenia są kwestią wyłącznie interpretacji obserwatora; nie istnieją obiektywnie.

Argument Searle’a Dla każdego przedmiotu istnieje pewien opis tego przedmiotu, na którego gruncie ów przedmiot jest komputerem cyfrowym. (To jest założenie pankomputacjonizmu i koncepcja natury obliczeń fizycznych, zaraz zanalizujemy).

Argument Searle’a Dla każdego programu i każdego dostatecznie złożonego przedmiotu istnieje jakiś opis tego przedmiotu, na którego gruncie realizuje on ów program. Na przykład ściana, o którą opieram się plecami, realizuje w tej chwili program Wordstar, ponieważ istnieje pewna konfiguracja ruchów cząsteczek, która jest izomorficzna z formalną strukturą tego programu. Ale skoro ściana realizuje program Wordstar, to przy dostatecznie dużych rozmiarach będzie ona realizowała każdy program, w tym również wszystkie programy, które są realizowane przez mózg.

Obliczać to mieć opis obliczeniowy? System oblicza, jeśli istnieje izomorfizm między stanami fizycznymi a stanami modelu obliczeń.

Obliczać to mieć opis obliczeniowy? Ale przecież układy fizyczne mają pewnie więcej niż 4 stany... Musi to być częściowy izomorfizm…

Argument Searle’a Przy założeniu, że wystarcza częściowy izomorfizm, aby uznać, że układ oblicza, trudno uniknąć wniosku Searle’a. Nawet jeśli uwzględnimy relacje następstwa między stanami – tego dowiódł Putnam. Pozytywna wiadomość: zamiast kupować nowe oprogramowanie, wystarczy przeinterpretować MS DOS jako Mac OSX 

Straszliwy pomysł Putnama Jak zabraknie stanów, definiujmy je, stosując alternatywę logiczną: ze stanu P1 i P2 powstaje jeszcze stan P3 = P1 v P2. A jak mamy zewnętrzny punkt odniesienia (np. zegar), to możemy zasymulować istnienie następstwa w czasie, bo na pewno istnieje jakaś relacja między stanem P3 a stanem zegara.

Co robić? Nie można przyjąć koncepcji, że dla fizycznego X-a realizować obliczenie to pozostawać w relacji częściowego izomorfizmu do pewnego modelu komputera. Dwa inne wyjścia: Semantyczna koncepcja obliczeń Kauzalna koncepcja obliczeń

Semantyczna koncepcja obliczeń Obliczenia poznawcze dotyczą reprezentacji, więc trzeba po prostu wymagać, aby obliczenia zachodziły zawsze na reprezentacjach. Dwa problemy: 1. Nie można mieć komputacjonizmu antyreprezentacyjnego  2. Poważniej: są obliczenia, które nie dotyczą wcale reprezentacji poznawczych.

Semantyczna koncepcja obliczeń Weźmy program: begin end To poprawny program, można go zrealizować, ale gdzież tu reprezentacje poznawcze? Poza tym – problem ugruntowania symboli jest realny; niełatwo mieć realne reprezentacje semantyczne w komputerach…

Koncepcja kauzalna Wg koncepcji kauzalnej liczy się tylko odwzorowanie między odpowiednią strukturą przyczynową w układzie fizycznym a danym modelem obliczeń. Taką koncepcję sformułował precyzyjnie pierwszy David Chalmers. Pewnym wariantem jest mechanicystyczna koncepcja Gualtiero Piccininiego i Marcina Miłkowskiego.

Na czym polega wyjaśnianie obliczeniowe? Dwie koncepcje: Funkcjonalistyczna (przeciw nomologicznej) Mechanistyczna

Nomologiczno-dedukcyjna koncepcja wyjaśniania Najogólniejsza teoria wyjaśniania (Hempel i Oppenheim 1948) Wyjaśnienia to poprawne argumenty. Ich przesłankami są zdania: Prawdziwe, ogólne i powszechnie obowiązujące (prawa) Opisujące parametry określonych przedmiotów (tzw. warunki początkowe) Wnioskami są obserwowane lub przewidywane stany rzeczy.

Hempel i Oppenheim (1948) Wyjaśnienia to argumenty Prawa ogólne Warunki początkowe ___________________________________ Opis explanandum Przewidywania mają tę samą formę! explanans

Koncepcja dedukcyjno-nomologiczna Przykład Jeśli coś jest solą kuchenną, to rozpuszcza się w wodzie. Przedmiot x jest solą kuchenną. ___________________________________________ Przedmiot x rozpuszcza się w wodzie.

Robert Cummins i wyjaśnianie funkcjonalne Cummins krytykuje ND: wyjaśnianie to nie podpadanie pod prawo Psychologia nie poszukuje praw, tylko efektów. Opis efektu, np. efektu McGurka, nie jest sam w sobie wyjaśnieniem!

Cummins i wyjaśnianie funkcjonalne Ale Cummins nie docenia warunków, które muszą spełnić prawa: Muszą być ogólne i prostsze niż opisy poszczególnych zdarzeń (dlatego opis efektu nie jest prawem!) Zbiór danych pomiarowych to nie prawo. Cummins myli wyjaśnianie nomologiczno-dedukcyjne z przefitowaniem

Wyjaśnianie funkcjonalne wg Cumminsa Efekty w psychologii wyjaśniamy jako realizację zdolności Zdolności opisujemy funkcjonalnie, korzystając z analizy funkcjonalnej Rozkładamy zdolność na składniki, które łącznie przejawiają tę zdolność I tak samo robimy z wyjaśnianiem obliczeniowym.

Nieznośna lekkość analizy funkcjonalnej Ale analiza funkcjonalna ma wadę. Wyjaśnia zdolności tylko w kategoriach „wystarczalności”. Istnieje nieskończenie wiele różnych analiz, a wszystkie z nich są w tym ujęciu równie poprawne! Tymczasem modele obliczeniowe ocenia się surowiej!

Słaba i mocna równoważność Jerry Fodor (1968) opisał symulacje (modele) przechodzące testy na poziomie wejścia- wyjścia „słabo równoważnymi” zjawiskom umysłowym. Mocno równoważne modele obejmują również dane o procesach tworzących dane wyjściowe. Celem kognitywistyki jest uzyskanie modeli mocno równoważnych.

Mocna równoważność Jak sprawdzić, czy proces jest równoważny? Sprawdzić, czy przebiega w podobnej liczbie kroków: metody chronometryczne. Analiza złożoności obliczeniowej może dać lepszy model – ocena trwania wykonania danego algorytmu. Obrazowanie mózgu: sprawdzić, czy wzorce aktywacji odpowiadają procesowi w modelu. To jest trudne!

Analiza funkcjonalna a dekompozycja mechanistyczna Mechanicyści twierdzą, że model będzie wyjaśniać dopiero wtedy, gdy opisze strukturę przyczynową zjawiska, z uwzględnieniem realnych części mechanizmów poznawczych i ich operacji. Innymi słowy, wymagają oni po prostu mocnej równoważności. Tego nie da się łatwo zbanalizować w stylu Putnama i Searle’a.

Ograniczenia wyjaśniania obliczeniowego Wedle ujęcia mechanistycznego komputery to nie tylko struktura wykonująca obliczenia. Komputery muszą być złożone z części, które same nie są (tego samego rodzaju) komputerami. I te części mogą robić coś, czego obliczeniowo wyjaśnić się nie da. Np. rozgrzewać się  Mnóstwo zjawisk musi więc umknąć!

Przeciw sztucznej inteligencji Jest mnóstwo argumentów przeciwko sztucznej inteligencji o postaci: Ludzie robią X. Komputery nigdy nie zrobią X. ––––––––––––––––––––––––––––––––– A zatem sztuczna inteligencja nie jest możliwa (albo komputacjonizm jest fałszywy). Ale trudno traktować przesłankę 2 poważnie, jeśli jest podana bez dowodu.

Przykłady „niemożliwości” J. Weizenbaum (autor bota ELIZA) twierdził, że finansowanie badań nad rozpoznawaniem mowy jest nieetyczne, bo to zadanie jest dla komputerów zbyt trudne. Y. Bar-Hillel twierdził, że nie da się w ogóle zrobić porządnego tłumaczenia maszynowego. Są też tacy, którzy twierdzili, że komputer nigdy nie wygra w Jeopardy! (wygrał IBM Watson).

Problem ramy (frame problem) W logicznych modelach AI, które myślenie modelują w kategoriach wnioskowania, pojawił się problem przy opisie zmieniającego się świata: Które twierdzenia trzeba odrzucać, a które pozostają bez zmian? Aby go rozwiązań, zaczęto badać logikę niemotoniczną. I problem rozwiązano. Ten problem nigdy nie wystąpił w innych modelach, ale przeciwnicy AI bardzo w niego wierzą.

Komputery niestandardowe A jeśli mózg jest komputerem analogowym? To jest. Mechanistyczny komputacjonizm nie wymaga, aby obliczenia rozumieć tylko w kategoriach maszyny Turinga. Można nawet postulować hiperobliczeniowe modele, o ile są racje empiryczne.

Podsumowanie Komputacjonizm to dominująca metodologia badań w kognitywistyce. Jest adekwatny dlatego, że procesy poznawcze są procesami przetwarzania informacji – czyli procesami obliczeniowymi. Argumenty banalizujące komputacjonizm trafnie wskazują, że trzeba mieć głębszą koncepcję realizacji obliczenia. Ale taka koncepcja istnieje.

Dalsze lektury Miłkowski, Marcin. 2013. Computational Theory of Mind. „Internet Encyclopedia of Philosophy.” http://www.iep.utm.edu/compmind/ Fresco, Nir. 2014. Physical Computation and Cognitive Science. Berlin, Heidelberg, Springer. doi:10.1007/978-3-642-41375-9.