Pobierz prezentację
Pobieranie prezentacji. Proszę czekać
1
Niebezpieczna zabawka
Roboty Niebezpieczna zabawka
2
Co to jest robot? Robot – mechaniczne urządzenie wykonujące automatycznie pewne zadania. Działanie robota może być sterowane przez człowieka, przez wprowadzony wcześniej program, bądź przez zbiór ogólnych reguł, które zostają przełożone na działanie robota przy pomocy technik sztucznej inteligencji. Roboty często zastępują człowieka przy monotonnych, złożonych z powtarzających się kroków czynnościach, które mogą wykonywać znacznie szybciej od ludzi. Domeną ich zastosowań są też te zadania, które są niebezpieczne dla człowieka, na przykład związane z manipulacją szkodliwymi dla zdrowia substancjami lub przebywaniem w nieprzyjaznym środowisku.
3
Ryzyko? Wraz z ciągłym rozwojem technologicznym naszej cywilizacji, roboty i wszelkie systemy automatyczne stają się coraz bardziej inteligentne. Dostają one coraz bardziej wymagające i odpowiedzialne zadania, jak np. kierowanie samochodem, opieka nad dziećmi, obsługa broni, a być może już w niedalekiej przyszłości także naciskanie spustu.
4
Ale czy powinniśmy obdarzać zaufaniem maszyny, powierzając im zadania, których wykonanie wpływa pośrednio lub bezpośrednio na nasze zdrowie i życie? Skąd możemy być pewni, że robot nie podejmie decyzji, która może wywołać niezamierzone szkody?
5
Te i inne kwestie dotyczące dotyczące rosnącej inteligencji, samodzielności i niezależności robotów od ludzi poruszone zostały w książce Moral Machines: Teaching Robots Right from Wrong (Moralne maszyny: Uczenie robotów odróżniania dobora od zła). Autorzy tej ksiązki: Wendell Wallach - etyk z Uniwersytetu Yale oraz Clin Allen z Uniwersytetu Indiana -historyk i filozof nauk kognitywnych, przekonują, że ludzie muszą opracować metodę jak uczynić z robotów odpowiedzialne i moralne maszyny. Naukowcy twierdzą, że jest tylko kwestią czasu, gdy komputer lub robot podejmie decyzję, która wywoła mniejszą lub większą szkodę człowiekowi.
6
A więc czy co możemy zrobić, aby zminimalizować ryzyko
A więc czy co możemy zrobić, aby zminimalizować ryzyko? Wallach i Allen opracowali sześć strategii, które mogłyby zredukować niebezpieczeństwo płynące ze stosowania nowoczesnych i inteligentnych maszyn.
7
Operacje o niskim ryzyku
Nie powinno się wykorzystywać maszyn - komputerów i robotów - do wykonywania czynności, w których musiałby podejmować decyzcje, których skutków nie można do końca przewidzieć. Prawdopodobieństwo sukcesu: wyjątkowo niskie. Inżynierowie już zbudowali komputery i systemy robotyczne, które wykonują operacje, których efektem mogą być trudne do przewidzenia skutki.
8
Indywidualni klienci, zakłady przemysłowe i agencje rządowe potrzebują wydajnych technologii zdolnych do wykonywania szeregu operacji i zadań, dlatego też podmioty produkujące roboty będą starać się sprostać tym oczekiwaniom, wyposażając swoje produkty w dodatkowe, nowe funkcjonalności. Gdyby im zakazać takiego działania, praktycznie cały rozwój automatyki i robotyki stanął by w miejscu.
9
Nigdy nie wyposażać roboty w broń.
Prawdopodobieństwo sukcesu: za późno. Półautomatyczne, uzbrojone w ostrą amunicję roboty już istnieją i są wykorzystywane przez wojsko (jak np. latający Predator, czy PackBot). Podczas wojny w Iraku sfotografowano kilka amerykańskich robotów wyposażonych w broń maszynową, ale prawdopodobnie nie zostały one użyte podczas walk. Jednakże, wojskowi stratedzy są bardzo zainteresowani rozwojem robotów - żołnierzy. Ich użycie podczas konfliktów zbrojnych mogłoby zmniejszyć liczbę ofiar śmiertelnych wśród ludzi.
10
Obecnie jest już za późno, aby zaprzestać budowy systemów robotycznych zdolnych do zabijania. Nie jest jednak za późno, aby ograniczyć np. typy broni, w jakie mogą być wyposażone roboty, lub sytuacje w których taka broń mogłaby być użyta.
11
Stworzyć kodeks dla robotów, analogiczny do Trzech Praw Robotyki.
Prawdopodobieństwo sukcesu: średnie. Słynne zasady Isaaca Asimova opisują "prawa robotów": najważniejszym z nich jest prawo pierwsze, mówiące, że maszyna nie może skrzywdzić człowieka. Drugie prawo mówi o tym, że robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z pierwszym prawem. Najniższy priorytet posiada prawo trzecie: robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z pierwszym lub drugim.
12
Należy jednak pamiętać, że Asimov zajmował się pisaniem fikcji literackich, a nie budowaniem robotów. Pisarz opisywał ciekawe sytuacje, np. co robot powinien zrobić w sytuacji, gdy dostaje rozkaz wykonania dwóch różnych czynności od dwóch, skłóconych ze sobą ludzi.
13
Zasady Asimova, definiujące, co robot może zrobić, a czego nie, może być w pewnych sytuacjach trudne do osądzenia. Przykładowo, skąd robot może wiedzieć, że chirurg rozcinający pacjenta na stole operacyjnym w rzeczywistości chce mu pomóc? Opowiadania Asimova wyraźnie ilustrują oczywiste ograniczenia praw robotów opartych na ich "moralności". Tym niemniej, prawa taka mogłyby z powodzeniem ograniczyć "swobodę działania" robotów w pewnych ściśle określonych aspektach zachowania.
14
Należy budować roboty z zasadami.
Zasady Należy budować roboty z zasadami. Budowanie robotów działających według ogólnych zasad, jak np. "czyń jak najwięcej pożytecznych i dobrych rzeczy" czy "traktuj innych tak, jak sam byś chciał być traktowany", byłoby znacznie bezpieczniejszym rozwiązaniem, niż programowanie maszyn według prostych zasad.
15
Prawdopodobieństwo sukcesu: średnie
Prawdopodobieństwo sukcesu: średnie. Wszystkie zasady mają swoje ograniczenia, dlatego etycy poszukują generalnej zasady, która byłaby wykorzystywana do szacowania wszelkich możliwych "aktywności" robota.
16
Jednakże historia etyki to tak naprawdę długa dyskusja nad wartościami i ograniczeniami poszczególnych zasad, które znamy. Przykładowo, logicznym wydawałoby się poświęcenie życia jednej osoby, aby ocalić pięć innych. Ale z kolei lekarz nie poświęciłby życia zdrowego człowieka, aby przekazać jego organy pięciu ludziom czekającym na przeszczepy. A co zrobiłby robot?
17
Czasami, odnalezienie optymalnej decyzji jest niezwykle trudne
Czasami, odnalezienie optymalnej decyzji jest niezwykle trudne. Przykładowo, określenie jaki zestaw czynności doprowadziłby do wytworzenia jak największej ilości rzeczy pożytecznych i dobrych, wymagałoby gigantycznej wiedzy i zrozumienia powiązanych ze sobą zasad typu akcja - reakcja, zachodzących na całym świecie. Wykonanie takich obliczeń wymagałoby olbrzymiej mocy obliczeniowej.
18
Należy kształcić roboty, tak jak dzieci.
Wychowanie Należy kształcić roboty, tak jak dzieci. Uczenie i kształcenie maszyn w trakcie ich "dorastania" (w czasie ich użytkowania), mogłoby doprowadzić do nabycia przez roboty zdolności odróżniania czynności, które ludzie rozumieją jako dobre lub złe.
19
Prawdopodobieństwo sukcesu: obiecujące, pomimo iż strategia ta wymaga zastosowania kilku przełomowych technologii. Obecnie dostępne technologie mocno ograniczają wyposażenie maszyn w taką zdolność, dlatego trzeba jeszcze poczekać, zanim inżynierowie zbudują roboty zdolne do kształcenia się w sposób w jaki robią to ludzie.
20
Należy budować roboty wyposażone w "sztuczną empatię".
Emocje Należy budować roboty wyposażone w "sztuczną empatię". Typowo ludzkie cechy, jak empatia, emocje i zdolność do odczytywania zachowań niewerbalnych mogłyby dać robotom znacznie większe możliwości interakcji z człowiekiem. Obecnie sprzedawane są już roboty domowe, które potrafią odczytywać i wyrażać emocje - w mniej lub bardziej ograniczony sposób.
21
Prawdopodobieństwo sukcesu: rozwój tzw
Prawdopodobieństwo sukcesu: rozwój tzw. robotów emocjonalnych w oczywisty sposób pomógłby zaimplementować trzy poprzednio opisane rozwiązania. Większość informacji, które wykorzystujemy do dokonywania wyborów pochodzi z naszych emocji i zdolności do odczytywania znaków z postawy i gestów innych ludzi, oraz zdolności do wyobrażania sobie pewnych spraw z punktu widzenia innej osoby.
22
Podsumowanie Rozwoju techniki i informatyki nie zatrzymamy, ale możemy ją zredukować lub zamienić na pożyteczniejszą. Wybór należy do nas, w jaki sposób wykorzystamy dane nam możliwości.
23
Przygotowała: Wiktoria Drozd Muzyka: Full Moon - The Black Ghosts
Dziękuję za uwagę. Przygotowała: Wiktoria Drozd Muzyka: Full Moon - The Black Ghosts Czerwiec 2009
Podobne prezentacje
© 2024 SlidePlayer.pl Inc.
All rights reserved.