Informacja, reprezentacja. Wąskie i szerokie ujęcia poznania Dr hab. Marcin Miłkowski, prof. IFiS PAN
Antyreprezentacjonizm w robotyce Robotycy behawioralni podkreślają aktywną naturę procesów poznawczych. Robot, zamiast budować model świata, może po prostu próbkować stan świata swoimi detektorami. Aktywna eksploracja otoczenia, podkreślana przez enaktywistów, to temat bardzo współcześnie eksploatowany. Ale jak się mają informacje do reprezentacji?
Informacja strukturalna Informacja strukturalna (logon): istnieje nośnik fizyczny, który ma co najmniej dwa wykrywalne stany (może zmieniać się, czyli ma jeden stopień swobody) Minimalne pojęcie, często stosowane w informatyce (to bity i bajty są jej jednostkami). Wystarczy, że istnieją różnice fizyczne. Bardzo mało!!!
Informacja selektywna Informacja selektywna (Shannona): miara nieprzewidywalności informacji strukturalnej (przesyłanej w kanale między nadawcą a odbiorcą) Jej jednostką też są bity, ale nie te same, o których mówi się standardowo w informatyce (np. przy podawaniu pojemności dysku).
Przykład: kod Morse’a Symbole: kreski i kropki (krótsze i dłuższe dźwięki) Informację mierzymy jako stopień zaskoczenia odbiorcy pewnego rodzaju ciągiem kresek i kropek, generowanym przez nadawcę. Niektóre kombinacje kropek i kresek są niepoprawne, więc ich prawdopodobieństwo jest bardzo niskie → więcej informacji!
Model komunikacji Shannona MODEL PROCESU KOMUNIKACJI ODBIORCA NADAWCA (źródło) DEKODOWANIE KANAŁ KODOWANIE SZUM sprzężenie zwrotne NADAWANIE KOMUNIKAT ODBIÓR
Uwaga: jak stosować miarę Shannona Weźmy dowód matematyczny. On ma prawdopodobieństwo 1. Wydawałoby się zatem, że żaden dowód nie niesie żadnej informacji w sensie Shannona. Ale tylko wtedy, kiedy odbiorca (którym może być maszyna!) zna tekst tego dowodu i wie, że dany tekst jest dowodem. Ilość informacji zależy od stopnia zaskoczenia odbiorcy. Nie jest absolutna!!!
Metafora przewodu Ujęcie Shannona miało służyć do opisu komunikacji z punktu widzenia inżyniera, a nie teoretyka komunikacji czy lingwisty. Wielu teoretyków odrzuca koncepcję, że rozumienie np. zdań w języku polskim polega na dekodowaniu znaczeń zakodowanych drogą fonetyczną. Komunikacja może polegać raczej na koordynacji działania i współdziałaniu, a nie na dekodowaniu…
Informacja algorytmiczna Miarą informacji algorytmicznej ciągu symboli jest długość najmniejszego programu mogącego wygenerować C. Przybliżenie tej miary dają uniwersalne algorytmy kompresji, np. Lempel- Ziv lub ZIP. Maksymalnie przypadkowe ciągi mają program dłuższy od samego ciągu. Ciągi całkowicie uporządkowane mają krótkie programy.
Pojęcie informacji O informacji można zatem mówić, gdy występują prawidłowości w przyrodzie (rozumiane statystycznie), objawiające się pojawianiem się określonych sygnałów. Te prawidłowości można odkrywać statystycznie przez badanie kowariacji lub mocniejszych współzależności.
Prawdziwość Ale pojęcia prawdziwości nie da się sprowadzić do pojęcia kowariacji. Aby mówić o prawdziwości (zdań) lub weredyczności (np. postrzeżeń), trzeba coś jeszcze dodać…
W poszukiwaniu informacji semantycznej Informacja semantyczna ma mieć własność prawdziwości ale niekoniecznie fałszywości: w ujęciu Dretskego i Luciana Floridiego informacja nie może być fałszywa Wiele konkurencyjnych koncepcji…
Informacja probabilistyczna Informacja probabilistyczna (Dretskego): Sygnał r niesie informację, że F(s) ztw P(F(s)|r ^ k) = 1 gdzie k to zmienna uwzględniająca uprzednią wiedzę odbiorcy Tu mamy informację opartą na prawach przyrody, które są pewne w 100%. Prawa przyrody i podobne prawidłowości są informacyjne.
Donald MacKay Donald M. MacKay (1922-1987), teoretyk informacji i neurolog, związany z brytyjskim klubem Ratio (Ashby, Barlow, Turing, McCulloch…).
Koncepcja informacji semantycznej MacKaya Informacja jest semantyczna, kiedy ma selekcyjną funkcję względem zespołu stanów organizmu, które stanowią macierz prawdopobieństw warunkowych działania. Potocznie: znaczyć to modyfikować gotowość do działania, a nie wywoływać reakcję.
Koncepcja MacKaya Tę koncepcję przejmuje w 1969 Daniel Dennett (treść reprezentacji ma funkcję modyfikacji gotowości do działania). Alva Noe (później z Kevinem O’Reganem) opracowuje koncepcję percepcji jako działania sensomotorycznego, przy czym działanie jest rozumiane w takich samych gotowościowych kategoriach.
Reprezentacja a informacja Spór antyreprezentacjonistów z reprezentacjonistami wymaga odpowiedzi na pytania: czym jest informacja? jak ma się informacja do reprezentacji? czym jest prawdziwość? czym różni się prawdziwość od rzetelności informacji?
Sama informacja to nie wszystko! Reprezentacje umysłowe muszą być: umysłowe, związane z działaniem podmiotu, mieć własności semantyczne (prawdziwość i fałszywość), mieć treść… Można wskazać kilka niezbędnych charakterystyk…
Mechanizmy reprezentacyjne Mechanizmy reprezentacyjne mają przynajmniej następujące funkcje: posiadanie nośników modyfikujących zdolność systemu do działania; odnoszenie się do (ewentualnego) desygnatu; wskazywanie cech desygnatu; posiadanie warunków spełniania opartych na tych cechach; ocenianie wartości epistemicznej informacji o desygnacie.
Mechanizmy reprezentacyjne Mechanizmy oceniania służą do ewentualnej korekty i świadczą o tym, że warunki spełniania mają rolę przyczynową w systemie poznawczym. Te zdolności mechanizmów reprezentacyjnych zapewniają, że pojawiają się ich dwie podstawowe własności: nieprzezroczystość odniesienia; zdolność do wykrywania błędu przez system poznawczy.
Nieprzezroczystość odniesienia Zenek wie, że Cyceron był świetnym retorem. Zdanie „Cyceron był świetnym retorem” jest prawdziwe zawsze i tylko wtedy, kiedy prawdziwe jest zdanie „Marek Tulliusz był świetnym retorem”. Bo „Cyceron” i „Marek Tulliusz” to ta sama osoba. Ale Zenek tego nie wie. Kiedy przypisujemy mu treść, przypisujemy mu ją w sposób nieprzezroczysty, bo ważne jak się Zenonowi Cyceron prezentuje.
Wąskie i szerokie podejście do poznania Tradycyjnie zwolennicy pojęć informacji kojarzeni są z „wąskim” podejściem do poznania: Liczą się procesy poznawcze zachodzące w głowie, a nie stany otoczenia czy interakcja z otoczeniem. Podejście indywidualistyczne, brak odniesienia do grupowych procesów poznawczych
Szerokie podejście do poznania Uwzględnianie roli: ciała, otoczenia, w tym afordancji, determinant kulturowych i społecznych… Współcześnie ucieleśnione podejścia są bardzo popularne.
Poznanie w otoczeniu Zewnętrzne reprezentacje ułatwiają poznanie
Poznanie rozproszone Procesy poznawcze wymagające poznawczego podziału pracy można określić mianem „poznania rozproszonego” (distributed cognition). Praca w laboratorium badawczym Tradycyjne metody nawigacji morskiej i lotniczej (badania D. Hutchinsa)
Neuroantropologia Badania łączące analizy antropologii kulturowej, badającej określone zjawiska kulturowe, z modelowaniem neurobiologicznym Praktyki kulturowe mają konsekwencje biologiczne (neuroplastyczność) Biologia ewolucyjna ujmuje kulturę jako niszę człowieka.
Polecane dalsze lektury The Π Research Network, The Philosophy of Information: Introduction, http://socphilinfo.org/teaching/book-pi-intro Łukasz Afeltowicz, Modele, artefakty, kolektywy, Toruń 2012 D. Lende i G. Downey, The Encultered Brain, MIT Press 2012
O czym była mowa Informacja: wiele miar, jedno pojęcie? Informacja semantyczna Reprezentacje a informacja? Wąskie i szerokie ujęcie procesów poznawczych – od redukcjonizmu neuronalnego do antropologii kognitywnej