Pobieranie prezentacji. Proszę czekać

Pobieranie prezentacji. Proszę czekać

Racjonalność Michał Białek.

Podobne prezentacje


Prezentacja na temat: "Racjonalność Michał Białek."— Zapis prezentacji:

1 Racjonalność Michał Białek

2 Rozwój wiedzy o racjonalności
Co to znaczy racjonalnie działać? Problem koszyka i dwóch losowań. Pascal – suma wszystkich możliwych wyników ważona przez ich prawdopodobieństwo Co lepiej: loteria 50% szans za 5 zł wygranej czy 5% szans za 50 zł?

3 Rozwój wiedzy o racjonalności
Bernoulli – maksymalizacja użyteczności Obiektywna wartość wyników to nie to samo co ich subiektywna wartość Co lepiej 5% szans na darmowe mieszkanie czy 50% szans na darmowe wykończenie mieszkania czy 5% zniżki przy zakupie?

4 Rozwój wiedzy o racjonalności
Von Neuman i Morgenstern Maksymalizacja subiektywnie oczekiwanej użyteczności Prawdopodobieństwo oceniamy subiektywnie, np. szanse zarobku na długoterminowych inwestycjach w akcje jest większe czy mniejsze niż na krótkoterminowych na FOREX?

5 Rozwój wiedzy o racjonalności
Simon – nie maksymalizujemy użyteczności, a satysfakcję, gdyż brak nam: Informacji (za mało lub za wiele) Za wiele celów na raz Nie mają wiedzy o dostępnych opcjach Nie są w stanie dokonać wszystkich obliczeń potrzebnych by porównać dostępne opcje

6 Od czasów Simona rozwija się deskryptywna teoria decyzji
Nie szuka się decyzji optymalnych, ale opisuje rzeczywisty proces, w tym na przykład: Analiza ryzyka Maksymalizacja satysfakcji z wybranek opcji (dysonans)

7 Teoria racjonalności Stanovicha (2009)

8 Teoria racjonalności Stanovicha (2009)
Jeśli podane są reguły gry – korzystamy z racjonalnego, algorytmicznego umysłu, który dekontekstualizuje treści i poddaje je obróbce formalnej Jeśli reguły gry nie są jasne – korzystamy z umysłu refleksyjnego, który tworzy reguły ale i kontekstualizuje treści

9 Teoria perspektywy

10 Co interesuje w podejściu deskryptywnym?
Błędy muszą być systematyczne, nie po prostu nieracjonalne. Błąd wtedy wynika albo z niedziałającego umysłu algorytmicznego (nieinteresujące) lub z działającego refleksyjnego (już bardzo!)

11 Klasyfikacja błędów poznawczych

12 Koncepcja skąpca poznawczego
pochodzi z psychologii społecznej, jej autorki to Susan Fiske i Shelley E. Taylor (1984). Umysł w ich ujęciu jest takim właśnie skąpcem, który stara się osiągnąć zamierzony cel wykorzystując do tego minimum dostępnych środków. Skąpiec działa na każdym poziomie przetwarzania informacji, począwszy od ich zbierania (selekcja informacji) poprzez ich przetwarzanie na wszystkich poziomach głębokości. w przypadku natłoku informacji, ludzie uciekają się do maksymalnej stereotypizacji sytuacji problemowej w celu uniknięcia konieczności analizy wszystkich informacji. Na przykład ludzie wolą oceniać ludzi po cechach ich rasy lub narodowości, niż traktować każdą jednostkę indywidualnie, dzięki czemu zmniejszają obciążenia poznawcze.

13 Procedury specyficzne dla TASS
Umysł autonomiczny, albo jak chce Stanovich: TASS, czyli The Autonomous Set of Systems [autonomiczny zbiór systemów] – akronim utworzony przez Stanovicha, obejmuje zestaw procedur i procesów przetwarzania informacji, charakterystycznych dla modułów. Stanovich dodaje tu poza klasycznymi modułami w ujęciu Fodora także procesy uczenia się utajonego oraz warunkowania. W jego skład wchodzą także różne reguły, dobrze opanowane, przeuczone procedury oraz emocje. Procedury typowe dla TASS stanowią kwintesencję skąpstwa poznawczego – w ogóle nie dochodzi do reorganizacji (decoupling) napływających informacji. Przyjmowane są one bezrefleksyjnie w takiej postaci, w jakiej zostały zaprezentowane. Ludzie potrafią czasem nie użyć w ogóle formalnego procesu przetwarzania informacji, gdyż jest on albo zbyt energochłonny, albo są m problem uznany został za niewart wysiłku.

14 Procedury specyficzne dla TASS
Przykładem takiego typu przetwarzania jest efekt jaskrawości (Vividness Effect), opisany po raz pierwszy w 1986 roku przez Fonga, Krantz i Nisbett. W ich eksperymencie badanym przedstawiano identyczne opisy samochodów SAAB i VOLVO. Jedyną różnicą było to, że według statystyk w serwisach oraz ankiet klienckich Volvo było bardziej niezawodne. Jednak przyjaciel decydenta (nasz) donosił, że jego Volvo psuło się bardzo często i odradzał jego zakup. Co my, jako decydent powinniśmy doradzić klientowi, zakup saaba czy Volvo?

15 EFEKT JASKRAWOŚCI Wybór Volvo wskazuje na większe poleganie na danych pochodzących z dużych populacji, o charakterze ogólnym i formalnym. Z kolei wybór saaba wskazuje na odwrotne preferencje, faworyzujące informacje konkretne, pochodzące ze znanego sobie, zaufanego źródła i jest przejawem właśnie efektu jaskrawości. Większość badanych chętniej doradza saaba, mimo że racjonalny decydent powinien wybrać Volvo. Analogicznym efektem jest zjawisko wagonika dla orkiestry (bandwagon effect). Polega on na automatycznym „podpinaniu się” pod popularne akcje lub poglądy, bez ich jakiejkolwiek analizy (por. Henshel i Johnston, 1987; Pittel, 1986).

16 Tendencyjność przyjętego punktu widzenia (focal bias).
Wyobraźmy sobie taką sytuację: Karol pożycza pieniądze Wojtkowi. Wojtek z kolei pożycza pieniądze Adamowi. Karol zawsze oddaje pieniądze, z kolei Adam nie. Czy osoba oddająca pożyczyła pieniądze osobie nieoddającej? Tak/Nie/Nie da się określić

17 Tendencyjność przyjętego punktu widzenia (focal bias).
Na to zadanie większość badanych wybiera odpowiedź „nie da się określić Gdyby jednak przeanalizować wszystkie możliwości dotyczące skłonności do zwracania pożyczek przez Wojtka, to okaże się, że gdy (a) zwraca on je, to odpowiedź na pytanie jest twierdząca (oddający Wojtek pożyczył nieoddającemu Adamowi). Gdyby Wojtek (b) nie zwracał pożyczek, to odpowiedź także byłaby twierdząca (oddający Karol pożyczył nieoddającemu Wojtkowi). Błędy w powyższych wnioskowaniach wynikają z niedostatecznej analizy alternatyw, które z kolei wynikają z oszczędności poznawczej.

18 Tendencyjność przyjętego punktu widzenia (focal bias).
Przykładem drugiego z rodzajów błędów wywodzących się ze skąpstwa poznawczego jest niedostateczne rozwinięcie reprezentacji umysłowej analizowanego problemu, czyli niedostateczna analiza możliwych alternatyw

19 Tendencyjność przyjętego punktu widzenia (focal bias).
Najbardziej jednak znanym przykładem omawianego błędu jest efekt frejmingu, ilustrowany przez zadanie chińskiej choroby (Tversky i Kahneman, 1981). Badanym przedstawiana jest hipotetyczna sytuacja zakażenia 600 osób tajemniczą chińską chorobą. Badany ma do wyboru użycie szczepionki A, która z pewnością ocali równo 200 osób, lub szczepionki B, która z prawdopodobieństwem jednej-trzeciej ocali wszystkich chorych. Szczepionka A albo doprowadzi z pewnością do śmierci równo 400 osób lub szczepionka B z prawdopodobieństwem dwie-trzecie spowoduje śmierć wszystkich zakażonych, badani mają tendencję do wyboru tej drugiej szczepionki w wariancie negatywnym a pierwszej w pozytywnym. Należy zwrócić uwagę, że formalnie szczepionki A oraz B z obu zadań są identyczne. Jak twierdzi Kahneman (2003, str. 703): „Podstawową zasadą frejmingu jest pasywna akceptacja podanego sformułowania”.

20 Problemy z oprogramowaniem umysłowym
Drugą, wspomniana już wcześniej grupą błędów poznawczych jest problem z brakiem specjalnych modułów, procedur czy metod analizy danych lub z ich wadliwością. Kluczowym odróżnieniem pomiędzy skąpstwem poznawczym a tą grupa, jest to, że błędy te nie są możliwe do uniknięcia przy takiej organizacji umysłu, w jakiej powstają – to znaczy umysłowi brakuje zdolności do wykrycia i poprawienia błędu. Błędy skąpstwa poznawczego mogą być skorygowane, jeśli tylko umysł zdecyduje się użyć odpowiednich mechanizmów do ich analizy (o ile je ma, jeśli nie – to błąd należy właśnie do drugiej grupy). W skład problemów z oprogramowaniem umysłowych wchodzą podgrupy: luki w oprogramowaniu oraz błędne oprogramowanie.

21 Luki w wyposażeniu umysłu
przyczyną popełniania przez ludzi systematycznych błędów jest po prostu brak odpowiednich struktur czy modułów, które mogłyby przejąć kontrolę nad specyficznym problemem. Umysł adaptując się do specyficznych warunków panujących w otoczeniu nie jest doskonały, systemy i moduły adaptacyjne powstają przez wiele setek lat, podczas gdy współczesna nauka i realia świata zmieniają się niezwykle dynamicznie. W zamian za to kontrolę nad analizą problemu przejmują inne moduły, koncentrujące się na odmiennych aspektach problemu, nie koniecznie najistotniejszych dla jego rozwiązania. Umysłowi ludzkiemu może czasem po prostu brakować odpowiednich struktur, co Stanovich nazywa lukami w wyposażeniu umysłu (mindware gaps).

22 Problemy z prawdopodobieństwem
Linda ma 31 lat. Jest panną. Jest otwarta i bardzo bystra. Uzyskała dyplom z filozofii. Jako studentka była bardzo zaangażowana w sprawy dyskryminacji i sprawiedliwości społecznej. Uczestniczyła w manifestacjach antynuklearnych. Poranguj następujące stwierdzenia na temat Lindy, przyznając 1 dla stwierdzenia najbardziej prawdopodobnego i 8 dla najmniej prawdopodobnego. Linda jest nauczycielka w szkole podstawowej. Linda pracuje w księgarni i uczęszcza na zajęcia Jogi. Linda jest aktywistka ruchu feministycznego. Linda jest pracownikiem socjalnym. Linda jest członkiem Ligi Głosujących kobiet. Linda obsługuje klientów w banku. Linda jest agentem ubezpieczeniowym. Linda obsługuje klientów w banku i jest aktywistką ruchu feministycznego.

23 Problemy z prawdopodobieństwem
Najbardziej znanym chyba badaniem demonstrującym ludzkie problemy z rachunkiem prawdopodobieństwa jest „zadanie Lindy” (Tversky, Kahneman, 1983). Efekt zaobserwowany przez nich nazwany został w literaturze błędem koniunkcji. Ludzie, kierowani stereotypem na temat ról społecznych (Davidson, 1995; Jacobs i Potenza, 1991) uznają w znakomitej większości (prawie 80% badanych) zdanie „h” za bardziej prawdopodobne niż zdanie „f”. Jest to oczywiste naruszenie zasad rachunku prawdopodobieństwa, gdyż koniunkcja dwóch zdarzeń nie może być bardziej prawdopodobna niż którekolwiek ze zdarzeń składowych oddzielnie (bycie feministyczną pracownicą banku nadal wymaga bycia pracownica banku!).

24 Problemy z prawdopodobieństwem
Innym znanym problemem z zakresu prawdopodobieństwa jest złudzenie gracza. W jego przypadku ludzie nie korzystają z dostępnej racjonalnie wiedzy umożliwiającej rozróżnianie prawdopodobieństwa układu zdarzeń od warunkowego prawdopodobieństwa wystąpienia któregoś ze składników zdarzeń pod warunkiem wystąpienia już wszystkich pozostałych (Tyszka, 1999, 2010; Zielonka, 2003). Weźmy za przykład rzuty monetą. Prawdopodobieństwo wyrzucenia 10 z rzędu orłów wynuci (1/2)10=0, ≈0, 1%. Wydaje się to słusznie nieprawdopodobne i takie zjawisko uznawane jest za niezwykłe i przyciąga uwagę.

25 Problemy z prawdopodobieństwem
Ludzie mając takie racjonalne założenie, będą skłonni do stwierdzenia, że gdy wypadło już 9 orłów z rzędu to teraz wypadnie reszka. Dlaczego? Właśnie dla tego, że cały ciąg wydaje im się mało reprezentatywny dla szeregu dziesięciu losowań, stad nieprawdopodobny. Gdy jednak zastanowić się, jakie jest prawdopodobieństwo wyrzucenia orła, zakładając, że wypadło już wcześniej 9 orłów, musimy użyć wzoru na prawdopodobieństwo warunkowe, w którym: P(A|B) = P(AnB) / P(B). Podstawiając dane do wzoru, otrzymujemy: P(A|B)=(1/2)10/(1/2)9=1/2. Przedstawione wyliczenia dowodzą, że prawdopodobieństwo wypadnięcie orła jest takie są mo, jak reszki - mimo, że „oczywiste” wydaje się, że „czas już na reszkę”.

26 Problemy z prawdopodobieństwem
zagadnienie wag decyzyjnych, wprowadzone na pole nauki przez Kahnemana i Tverskiego (1979; 1982). Zjawisko to odzwierciedla ludzką tendencję do nieadekwatnej oceny wartości potencjalnych zysków i strat w sytuacji ryzyka. Teoretycznie wartość zysku w sytuacji ryzyka należy obliczyć mnożąc potencjalny zysk przez prawdopodobieństwo jego zajścia. Korzyśc z (a) loterii o szansie 50% na wygraną tysiąca złotych jest takie samo, jak (b) pewny zysk 500 złotych (A=1/2*1000=500 oraz B=1*500=500; zatem A=B).

27 Problemy z prawdopodobieństwem
Obserwowana u ludzi tendencja do zmiany wag decyzyjnych polega na systematycznym odchylaniu się szacowanych prawdopodobieństw (wag decyzyjnych) od ich realnych wartości. Dla niższych prawdopodobieństw funkcja wag przyjmuje wartości niższe niż odpowiadające prawdopodobieństwa. Dla wyższych prawdopodobieństw funkcja wag przyjmuje wartości wyższe niż odpowiadające prawdopodobieństwa. Oznacza to, że ludzie wykazują skłonność do zawyżania małych prawdopodobieństw i zaniżania dużych (Zielonka, 2008).

28 Problemy z prawdopodobieństwem
W podawanym wcześniej przykładzie 84% badanych wybierało 500 izraelskich funtów wygranej (badanie przeprowadzono w Izraelu, Kahneman i Tversky, 1979). Rys. Funkcja wag decyzyjnych. Przejawem takich tendencji jest skłonność ludzi do wyboru loterii w stosunku do małego, ale pewnego zwycięstwa na przykład: A: 1:1000 szansa na wygranie $5000, B: pewna wygrana w wysokości $5. Większość badanych opowiada się za opcją A, gdyż przeceniają obiektywnie niewielkie szanse wygrania dużej sumy. To zjawisko odpowiada za sukcesy licznych loterii (Plous, 1993).

29 Ignorowanie alternatywnych hipotez
Przed tobą znajduje się ciąg pewnych słów. Możesz zaproponować kolejne ze słów, a uzyskasz odpowiedź, czy jest to poprawne słowo. Odnajdź rządzącą tym ciągiem regułę. Neurolog, pulmonolog, urolog. Zdecydowana większość badanych podaje jako pierwszą „próbę” dowolny zawód medyczny w wersji męskiej. Utworzona na szybko hipoteza, jakby zasada rządząca brzmiała „zawody mężczyzn-lekarzy” powoduje, że badani generują takie przykłady, które tę hipotezę mogą potwierdzić. Strategia taka nazwana została konfirmacyjną strategią testowania hipotez (Wason, 1960, 1968) lub pozytywnym testowaniem (Klayman, Ha, 1987).

30 Ignorowanie alternatywnych hipotez
Przyczyną błędów w tym przypadku jest niedostateczna koncentracja na alternatywnych hipotezach, jako potencjalnych opcjach wyjaśniających zaobserwowaną prawidłowość. Racjonalny decydent poszukiwać powinien w przypadku takim jak w przytoczonym zadaniu takich zjawisk, które umożliwią mu odrzucenia przyjęte na szybko hipotezy (negatywne testowanie, za: Klayman, Ha, 1987). Należałoby spróbować albo z bardziej ogólnym zawodem (np. lekarz) albo z żeńską wersją (dentystka) albo z zawodem z „zupełnie innej beczki” (np. żołnierz). Alternatywnie można poszukiwać odpowiedzi jeszcze szerzej, testują słowa zdawałoby się niepowiązane (np. królik). Negatywne odpowiedzi utwierdzają nas w słuszności naszej przyjętej roboczo hipotezy. Ludzie koncentrują się jednak jedynie na pierwszej, narzucającej się opcji i to ją starają się potwierdzić. (McKenzie, 1998), ludzie o ile potrafią skutecznie w teorii testować hipotezy, to w realnych zadaniach posługują się nimi nader rzadko. Wynika to właśnie z przyjęcia jedynie jednej, najoczywistszej z alternatywnych hipotez.

31 Podobieństwa między błędami skąpstwa poznawczego a luk w wyposażeniu umysłu.
Niektóre z pojawiających się fenomenów ludzkiego rozumowania mogą wydawać się równie dobrze wyjaśnione zarówno przez koncepcję skąpca poznawczego jak i braku w wyposażeniu umysłowym. Kluczowym kryterium klasyfikacji tych błędów do różnych kategorii przez Stanovicha i zespół jest to, że aby błąd sklasyfikować jako błąd zastąpienia musi zajść przynajmniej próba „przelicytowania” wniosku skojarzeniowego (Evans, 2007, 2008; Stanovich 2004, 2008) alternatywnymi informacjami lub wyuczonymi regułami. Tak więc człowiek musi już wcześniej posiadać te alternatywne informacje lub metody działania – w innym przypadku mówimy o braku odpowiedniego wyposażenia.

32 Podobieństwa między błędami skąpstwa poznawczego a luk w wyposażeniu umysłu.
Wraz z rozwojem poznawczym i nabywaniem nowych procedur błędy braku wyposażenia zastępowane są błędami wynikającymi z nieużycia tych procedur. Dobrze wyuczona reguła, ale nieadekwatnie zastosowana, klasyfikowana jest już jako błędne zastąpienie – o którym będę pisał w następnym paragrafie. W obszarach, które nabyte reguły myślenia obejmują coraz słabiej, nadal mamy do czynienia z błędami braku odpowiedniego „oprogramowania”. Granica między błędami skąpstwa poznawczego a braku odpowiedniego wyposażenia umysłu jest płynna i stale zmienia się wraz z nabywaniem przez ludzi nowych umiejętności. Przykładem takiego procesu, w którym przyczyny błędu lezą na pograniczu braku dostatecznego zaangażowania a braku odpowiednich procedur są błędy nieudanych zastąpień.

33 Nieudane zastąpienia (override failures)
to zjawisko polegające na nieudanym zastąpieniu wniosków skojarzeniowych, automatycznych, racjonalnymi wnioskami. Mówiąc prościej, mimo, że problem jest analizowany formalnie, to wniosek wyprowadzony na tej podstawie przegrywa w konkurencji z wnioskiem wynikającym z użycia innych alternatywnych metod (czyli posłużenia się innymi modułami, służącymi teoretycznie do analizy innego typu danych). Grupa takich błędów jest szczególnie liczna, zawiera w sobie między innymi: efekt treści przekonań (belief bias), ignorowanie wspólnego mianownika (denominator neglect) czy problemy związane z samokontrolą, takie jak niezdolność do odraczania gratyfikacji

34 Nieudane zastąpienia (override failures)
Badani często zdają sobie sprawę, że ich działania oparte są na irracjonalnych podstawach, mimo to decydują się na podtrzymanie swojej decyzji. Poniżej pokrótce omówię wspomniane tendencyjności. Przykładem takiego nieudanego zastąpienia jest złudzenie Mullera-Layera, w którym mimo że wiemy, iż odcinki są równej długości, nadal spostrzegamy jeden z nich jako dłuższy (por. rozdział dotyczący modułowości umysłu).

35 Efekt treści przekonań (Belief bias).
Efekt treści przekonań polega na uznawaniu za poprawne raczej tych wniosków, które są zgodne z posiadaną wiedzą niż tych, które są prawomocne formalnie. Wnioskowania te prezentowano w formie prawomocnej i nieprawomocnej, a każde z nich w wariancie wiarygodnym i niewiarygodnym. Zadaniem badanych było ocenić to, czy wniosek jest koniecznie prawdziwy, przy założeniu, że przesłanki są prawdziwe. Badani preferowali oczywiście zarazem prawomocne i prawdziwe wnioski. Gdy jednak wnioski były albo nieprawomocne i zarazem wiarygodne albo niewiarygodne, ale prawomocne, badani preferowali te nieprawomocne (67 vs 53 wskazania). Wcześniejsza wiedza na temat przebiegu analizowanych relacji może zarówno facylitować jak i interferować z poprawnością oceny niezawodności logicznej wniosku (por Białek, 2010; Stanovich i inni, 2008).

36 Ignorowanie wspólnego mianownika (Denominator neglect)
dwie urny do losowania: jedna z nich zawierała 9 białych i jedną czarna kulkę; druga urna zawierała 92 białe i 8 czarnych kulek. Uczestnicy badania mogli dostać dolara, gdy wylosowana zostanie czarna kulka – ich decyzja: losować z pierwszej czy drugiej urny? Większość badanych postąpiła racjonalnie – losowała z pierwszej urny o 10- procentowej szansie wygranej (60-70% badanych dokonywała takiego wyboru). Zaskakujące jest jednak, że prawie co trzeci badany wybrał drugą urnę: o mniejszej szansie wygranej, ale o większej liczbie kul wygrywających. Prawie każdy z tej grupy zdawał sobie sprawę z mniejszego prawdopodobieństwa wygranej w wskazanej przez siebie urnie, ale mimo to podtrzymywał swoją decyzję. Podsumowując efekt ignorowania wspólnego mianownika polega na przecenianiu częstości wystąpienia jakiegoś zjawiska nad jego częstotliwość. Klaczynski (2001). Osoby, które poddał badaniu miały do wyboru dwie urny: a) 1 wygrywająca kula na 10 w urnie oraz b) 10 wygrywających na 100. Badani mogli wskazać, którą urnę preferują lub zaznaczyć, że nie ma znaczenia, z której będą losować (poprawny wniosek). Wskazanie urny B świadczyło o ignorowaniu wspólnego mianownika, i takiego wskazania dokonywała większość badanych

37 Problemy samokontroli wynikające z ignorowania wniosków formalnych.
polegają one na zastępowaniu racjonalnych, poprawnych formalnie wniosków przez irracjonalne, wynikające ze specyficznego myślenia. Badacze wykazują, że niektóre osoby systematycznie zniekształcają ocenę sytuacji korzystając z irracjonalnych wniosków, jak choćby złudzenie gracza. Złudzenie to polega na traktowaniu niepowiązanych zdarzeń za zależne, na przykład po pięciokrotnym wypadnięciu koloru czarnego w ruletce ludzie sądzić będą, że „teraz czas na czerwony”, bo czarny „już się nawypadał”. W powszechnym odczuciu bardziej prawdopodobne jest w opisanej sytuacji wystąpienie jednego ze zjawisk (czerwonego), mimo że prawdopodobieństwo obu wynosi nadal 50%. Działania osób uzależnionych od hazardu często sterowane są przez procesy irracjonalne, a dopiero później racjonalizowane (por. Coventry i Norman, 1998).

38 Problemy samokontroli wynikające z ignorowania wniosków formalnych.
W materiale w TV na temat zakazu hazardu (problem legalizacji kolejnych automatów do gier) jeden z graczy wypowiadał się, że gra na automatach to „długotrwała i kosztowana inwestycja”, która tylko dzięki jej kontynuacji może doprowadzić do zysku. Właśnie taki sposób myślenia badacze rozumowania określają nieudanym zastąpieniem, w którym jasne i racjonalne przesłanki o losowym charakterze gry zastąpione są życzeniowym przekonaniem, że w końcu musi się udać. Nie ma wątpliwości, że w ludzie posiadają możliwość generowania racjonalnych wniosków na temat szkodliwości swojego nałogu (palacze, alkoholicy itp.), mimo że swojego zachowania na nich opierają. Mamy tu zatem do czynienia z analogicznym do wcześniej opisywanych problemów przetargu między racjonalnymi wnioskami a intuicją, przeczuciem czy podobnymi mechanizmami sterowania zachowaniem.

39 Błędy wynikające z wadliwości wyposażenia umysłu.
Wbrew powszechnym przekonaniom, nabywanie wyspecjalizowanych zdolności poznawczych nie zawsze prowadzi do racjonalizacji funkcjonowania poznawczego człowieka. Istnieją zarówno błędne mechanizmy, jak i nieadaptacyjne struktury, które w praktyce utrudniają realizację zamierzonych przez podmiot celów. W skład tej grupy mechanizmów wchodzą: mechanizmy wyłączające ewaluację, myślenie egocentryczne czy kulturowo uwarunkowane, nieadaptacyjne przekonania. Kolejną podgrupą jest samowiedza i naiwne teorie psychologiczne. Na te teorie składają się zarazem: błędna wiedza na temat cech ludzkich, zdolności oraz procedur, jakimi kieruje się umysł jak i brak odpowiedniej wiedzy, na przykład na temat zdolności adaptacji do zarówno pozytywnych jak i negatywnych zdarzeń

40 Błędy myślenia egocentrycznego
Kruger i Clement(1994) oszacować, jaka jest proporcja czerwonych i niebieskich żetonów w urnie, zawierającej 700 sztuk żetonów. Prawdopodobieństwo każdego układu jest w teorii równe (może być zarówno 100% czerwonych, jak i 100% niebieskich; może tez być każda dowolna proporcja). Następnie badani mieli korygować swoje przypuszczenia na temat żetonów po wylosowaniu 1 niebieskiego żetonu. Następnie losowano 3 niebieskie i ostatecznie 20 niebieskich. Badani po każdym z tych trzech etapów (1, 3 i 20 losowań) mieli podawać swoje przypuszczenia co do proporcji różnokolorowych żetonów w urnie.

41

42 Błędy myślenia egocentrycznego
Jednym z znanych przykładów dla błędów myślenia egocentrycznego jest złudzenie jednomyślności (consensus bias). Polega ono na przyjęciu własnego punktu widzenia za dominujący w świecie. Prawidłowym, racjonalnym działaniem jest uwzględnienie ładunku informacyjnego losowań oparte na regule Bayesa. Pierwsze losowanie niesie ze sobą największy ładunek informacyjny, wymagający największego dostosowania prawdopodobieństw a priori i a posteriori. Zmiany prawdopodobieństwa występowania poszczególnych żetonów wraz z kolejnym losowaniem jest coraz mniejsze, gdyż rośnie próbka, na której ustalano empirycznie prawdopodobieństwo.

43 Błędy myślenia egocentrycznego
Badani jednak wykazywali tendencję do odwrotnego zachowania – im więcej dostarczano im dowodów, tym chętniej żegnali się z własnym wstępnym przypuszczeniem (należy pamiętać, że nieopartym na żadnym realnych przesłankach). Krzywa reprezentująca proporcję niebieskich żetonów do czerwonych rosła więc zbyt wolno w stosunku do dostarczanych informacji, co uwarunkowane było przyjęciem własnej hipotezy i rozpatrywanie problemu z jej perspektywy.

44 Mechanizmy wyłączające ewaluację
Organizmy jednak tylko w wyjątkowych sytuacjach generują absolutnie pewne wnioski, zdecydowana większość wniosków opiera się jedynie na większej lub mniejszej szansie prawdziwości. Nadmiernie krytyczne procesy ewaluujące myślenie mogłyby w dużej mierze sparaliżować działania suboptymalnych procesów poznawczych. Stąd organizm wyposażył się w „oprogramowanie”, które blokuje procesy ewaluacyjne – czy to poprzez groźbę kary za kwestionowanie poprawności wyposażenia umysłu, czy poprzez nagradzanie niekwestionowania wiary w poprawność owego wyposażenia (Stanovich, 2004, 2008). Umysł udaremnia także procesy samo-ewaluacji poprzez interpretowanie umysłu jako niefalsyfikowalnego (Dennett, 1995). Kosztem utrzymania mózgu w działaniu jest godzenie się na jego niedoskonałe funkcjonowanie i utrudnienia w jego udoskonalaniu.

45 Mechanizmy wyłączające ewaluację
Poronin (2006) pisze, że ludzie są głęboko przekonani, że odkryliby nieracjonalność własnych procesów poznawczych po prostu poprzez introspekcję. W rzeczywistości zdecydowana większość tendencyjności poznawczych przebiega nieświadomie i nie jest dostępna introspekcji. Mało tego, im umysł bardziej jest obciążony (biased), tym większe ma przekonanie o własnej niezawodności. Informacja o niedostępności prawdziwego przebiegu wewnętrznych procesów wydaje się prawdziwa w świetle modułowej koncepcji umysłu, jednak intuicyjna (naiwna) psychologia preferuje introspekcję jako metodę zdobywania wiedzy o własnych wewnętrznych procesach i mechanizmach. Skoro zatem introspekcyjnie nie mamy możliwości odkrycia własnych tendencyjności, jesteśmy głęboko przekonani o spójności i niezawodności własnych procesów poznawczych.

46 Błędy poznawcze o mieszanej strukturze przyczynowej
Nie wszystkie opisane w literaturze błędy poznawcze dają się łatwo zaklasyfikować do którejś z czterech wymienionych wcześniej kategorii błędów. Jak wspomniano już wcześniej, istnieją poważne problemy by niektóre błędy zaklasyfikować odpowiednio jako luki w wyposażeniu umysłu lub błędy skąpstwa poznawczego. Ale nie tylko w odpowiednim zaklasyfikowaniu błędów tkwi problem. Niektóre z nich mają mieszany charakter, wynikać mogą z nakładających się na siebie dwóch lub więcej rodzajów opisanych wcześniej błędów. Poniżej omówię pokrótce także tę grupę błędów poznawczych, w której skład wchodzą: naiwne teorie psychologiczne, ślepota na własną tendencyjność, błędy zadania selekcyjnego Wasona, myside bias, błędy przewidywania afektywnego oraz konfirmacji własnego stanowiska (confirmation bias).

47 Naiwne teorie psychologiczne
Naiwne teorie psychologiczne opisują wiedzę i przekonania, jakie ludzie żywią na temat swoich umysłów. Na to składa się zarówno niewiedza na temat na przykład zdolności umysłu do radzenia sobie z nieprzyjemnymi zdarzeniami, a przez to przeszacowywania ich negatywnych skutków (Kahneman, Tversky, 1979). Ale naiwna samowiedza to nie tylko brak odpowiednich informacji, ale także posiadanie nieprawdziwych informacji. Przykładów tego typu przekonań można znaleźć wiele, wymienić wśród nich warto choćby to, że ludzie są przekonani o znajomości przyczyn swoich własnych zachowań, a wiele z zachowań ludzkich ma jednak przyczyny niedostępne świadomości (Nisbett, Wilson, 1977). przeświadczenie o znajomości swojego własnego umysłu oraz o tym, że o ile inni mogą być skażeni tendencyjnościami, o tyle nasz własny umysł jest od nich stosunkowo wolny (Pronin, 2006). Tak więc w związku ze swoim mieszanym charakterem naiwne teorie są kontaminacją braków wyposażenia umysłu oraz błędów w nim.

48 Zadanie selekcyjne Wyobraź sobie talię kart, na których z jednej strony są litery alfabetu łacińskiego, a z drugiej strony liczby naturalne. Chcemy wybrać z talii karty, które spełniały będą następujący warunek: „Jeśli z jednej strony karty jest samogłoska, to z drugiej jej strony jest liczba parzysta. Wskaż te karty, które musisz odkryć, aby przekonać się, czy wśród nich powyższa reguła jest złamana.” Na stole widzisz następujące cztery karty wyciągnięte z talii:

49 Zadanie selekcyjne Badani w zdecydowanej większości decydują się sprawdzić karty, zawierające A i 6. Jest to błąd, gdyż sprawdzanie „6” nie wnosi niczego wartościowego do weryfikacji hipotezy. Gdyby po drugiej stronie była samogłoska, to zdanie:, „jeśli z jednej strony karty jest samogłoska, to z drugiej jej strony jest liczba parzysta” jest prawdziwe. Z kolei spółgłoska po drugiej stronie, nadal nie podważa hipotezy, gdyż w żaden sposób w weryfikowanym zdaniu nie powiedziano, że liczba parzysta może wystąpić tylko i wyłącznie po samogłosce. Jest to znany błąd, związany z tabelą prawdziwości implikacji, w której ludzie traktują implikację, jako implikację materialną (zamiast jeśli p to q, badani analizują zdania q wtedy i tylko wtedy, gdy p). Prawidłowym rozwiązaniem jest poszukanie tych opcji, które jako jedyne dają fałszywą implikację, czyli p oraz ~q. W tym zadaniu należy odwrócić zatem karty A i 9.

50

51 Myside bias Kolejnym złożonym błędem poznawczym jest „myside bias”. W klasycznym eksperymencie Barona (1991), badanym dzieciom zaprezentowano następującą historyjkę: „Dziecko grozi, że nie odrobi pracy domowej, jeśli sprawy nie potoczą się po jego myśli. Gdy nadchodzi czas spełnienia groźby dziecko chce mimo wszystko zrobić pracę domową. Czy powinien spełnić groźbę?” Badane dzieci zachęcono dodatkowo, do przeanalizowania kolejnych argumentów, dotyczących danej historyjki: „Powiedz mi, czy sądzisz, który z argumentów popiera nierobienie pracy domowej, a który skłania do jej odrobienia? Potem powiedz, czy jest to dobry czy zły argument. Naprawdę chcesz zrobić pracę domową Jeśli zrobisz prace domową, rodzice nie uwierzą więcej w twoje groźby Jeśli nie zrobisz pracy domowej będziesz miał kłopoty w szkole”

52 Myside bias Myside bias polegał na takim przekształcaniu argumentu, aby potwierdzał przyjęte przez dziecko stanowisko. Tendencja do manipulowania argumentami mogłaby także polegać na uznawaniu argumentów popierających własne stanowisko za dobre, podczas gdy argumentów przeciwnych, jako złe. Wyjaśnienie zaobserwowanego przez Barona zjawiska jest po raz kolejny złożone: błędne oprogramowanie umysłu wywołuje egocentryczne przekonanie, że świat kręci się wokół nich. Jednak także przyjmowanie narzuconego punktu widzenia może być przyczyną omawianego błędu. „Ludzie pracują na modelu sytuacji, który jest najłatwiejszy do stworzenia; a jaki mógłby być łatwiejszy niż ten, oparty na naszych poprzednich doświadczeniach i przekonaniach?” (Stanovich i inni, 2008, s. 266). Należy odróżnić jednak motywację do rozpatrywania problemów z własnej perspektywy od tej, motywowanej oszczędnością poznawczą. Ta druga strategia, mimo że czasem prowadzić może do wniosków pokrywających się z pierwszą, wykorzystuje jednak modele sytuacji problemowej widziane tylko z własnego punktu widzenia jedynie, gdy są one najłatwiej dostępne i najekonomiczniejsze.

53 Błędy przewidywania afektywnego
Ludzie są zaskakująco słabi w przewidywaniu swoich przyszłych stanów emocjonalnych oraz ich natężenia (Kahneman, Dierner i Schwarz, 1999). Podejmujemy decyzje, które okazują się być nietrafne właśnie z tego powodu, że nie jesteśmy wstanie ocenić ich przyszłego ładunku afektywnego. Stanovich (2008) podaje przykład przeceniania negatywnych skutków swoich czynów, co w efekcie może blokować działanie. W swoich naiwnych teoriach na temat ludzkiej psychiki często nie doceniamy naszych zdolności obronnych i adaptacyjnych. Często przecież automatycznie wmawiamy sobie, że ta wymarzona do niedawna praca wcale nie jest taka ciekawa, i tak naprawdę wcale jej nie chcieliśmy (także w ekonomii mamy do czynienia z pochodnym temu zjawiskiem, kwaśnymi winogronami Elstera; Mongin, 1999).

54 Błędy przewidywania afektywnego
Kolejnym problemem w przewidywaniu swoich przyszłych stanów emocjonalnych jest przyjmowanie narzuconej perspektywy. Fani drużyn przeceniają na przykład swoją radość po wygranym meczu w dwa dni po jego odbyciu (Doliński, 2008). Oceniają oni swój stan jedynie z naświetlonej perspektywy wygranego meczu, nie biorąc pod uwagę ukrytych alternatywnych zdarzeń, które mogą wpłynąć na ich samopoczucie w tym są mym czasie.

55 Racjonalność a decyzje finansowe
Zieonka/Wąsowicz-Kiryło

56 Heurystyka zakotwiczenia (Stephan, Kiell, 2000)
DAX (z 21 mscy) oszacuj na 12 mcy w przód, czy A) spadnie poniżej 4500pkt B) przekroczy 6500 pkt Oszacowania: 5765 (a) i 5930 (b)

57 Fejming Otrzymujesz 200 zł, oraz: A) dostajesz dodatkową 100
B) 50% szans na 200 Otrzymujesz 400zł, oraz A) oddajesz 100 B) 50% szans na strate 200 Kupiłeś 100 akcji po 20 zł, które staniały do 10. Firma ta zainwestowała – jak inwestycja się uda (cena wraca do 20), jesli nie to cena spada do 0. Co wybierasz?

58 Księgowanie mentalne Bilet do kina kosztuje 10 zł, a idąc do kina
A) zgubiłeś bilet B) zgubiłeś 10 zł przeznaczone na ten bilet Czy kupisz bilet w kasie? Zdecydowana przewaga „B”

59 Księgowanie mentalne Rozdzielaj zyski Łącz straty
Łącz małą strate z duzym zyskiem Oddziel mały zysk od dużej straty

60 Prawdopodobieństwo Heurystyka reprezentatywności (LINDA)
Dlaczego inteligentne kobiety chętnie wychodzą za mniej inteligentnych od siebie facetów? Regresja do średniej! Złudzenie gracza Heurystyka dostępności Przewidywanie afektywne (iluzja optymizmu) Nadmierna pewność siebie Złudzenie kontroli


Pobierz ppt "Racjonalność Michał Białek."

Podobne prezentacje


Reklamy Google