Przejdź do treści

Status moralny robotów. Kiedy wyłączenie maszyny byłoby morderstwem?

Czym jest ten tekst? Jest to moja praca z olimpiady filozoficznej. Zamieszczam ją tu, mając nadzieję, że komuś w ten sposób pomogę – zainteresuję etyką i problemem statusu moralnego, ogólnie filozofią lub pokażę przyszłemu olimpijczykowi wzór takiej pracy. Nie jest ona idealna, ale zapraszam do zapoznania się z nią:)

Wstęp, czyli uściślenia, definicje i przedstawienie problemu badawczego

Czy maszyny zdobędą status moralny? To pytanie zadaje sobie ludzkość co najmniej od czasów rewolucji przemysłowej (choć roboty istniały też wcześniej), ale obecnie staje się ono coraz bardziej realne. Ale niepostrzeżenie czy zmieniło się w kiedy.

W pytaniu, które rozważam, choć na pierwszy rzut oka tak się nie wydaje, duże znaczenie ma słowo morderstwo. Tym wyrazem określamy bowiem tylko umyślne zabicie człowieka, istoty, której status moralny jest, w powszechnej opinii, wyższy niż innych bytów. W związku z tym tak sformułowany problem oznacza pytanie: kiedy roboty osiągną status moralny ludzi, a właściwie osób, lub nawet wyższy.

Na wstępie należałoby jednak ustalić, co to jest status moralny. Mary Anne Warren w 1997 roku wydała książkę Status moralny. Obowiązki wobec osób i innych istot żywych, w której definiuje status moralny jako środek określający, wobec czego (lub kogo) mamy obowiązki moralne i jakie one są1. Według amerykańskiej filozofki stanowi on zatem swoistą granicę nakazującą namysł moralny nad naszym postępowaniem wobec innych istot żywych. No właśnie, czy tylko takich? Gdybyśmy przyjęli czysto biologiczną definicję życia i utrzymywali, że jeśli coś żyje, przejawia się to potrzebami fizjologicznymi, moglibyśmy od razu stwierdzić, że roboty nigdy nie zyskałyby statusu moralnego. Jednakże moim zdaniem, życie nie sprowadza się tylko do funkcji biologicznych. Owszem, zazwyczaj pozwalają one stwierdzić, że coś żyje. Ale nie można powiedzieć, że są jedynym możliwym kryterium oceny życia – wykluczałoby to wszelkie roboty. Nie można też dodać w definicji statusu moralnego, że one stanowią wyjątek. Istnieją przecież już w dzisiejszej rzeczywistości roboty kuchenne, sprzątające itp., wobec których nie mamy obowiązków moralnych. Nie różnią się one szczególnie od kamienia czy innych przedmiotów nieożywionych. Należy więc poszukać tego kryterium, które sprawia, że robot staje się żywy.

Wygląda na to, że życie w dzisiejszym rozumieniu tego słowa nie mogłoby być kryterium oceny statusu moralnego robota. Ale co mogłoby spełniać taką rolę? I czy każdy robot miałby status moralny?

Robot to bardzo ogólne określenie. Wydaje mi się, że należałoby wyróżnić parę przypadków. W kolejnych akapitach rozważę problem badawczy w kilku scenariuszach.

Tradycyjna wizja

Tradycyjnie wyobrażamy sobie roboty przyszłości jako istoty stworzone na wzór ludzi, zarówno pod względem intelektu, jak i wyglądu. Tak najczęściej przedstawiają je twórcy w książkach i filmach science-fiction. Roboty poruszające się, fizyczne i antropomorfizowane – w tej kategorii mieszczą się androidy, zaczynając od tych stereotypowych z mechanicznym głosem i metalową „skórą”, a kończąc na takich, których nie sposób, na pierwszy rzut oka, odróżnić od ludzi. Kiedy ich odłączenie od prądu byłoby morderstwem? Na razie widzę pare możliwości, z którymi spróbuję się skonfrontować w następnych akapitach.

Pierwszą z nich jest wolna wola. Gdyby roboty ją zdobyły, automatycznie powinniśmy im przyznać pewne prawa. Wtedy w końcu stałyby się czymś więcej niż zdeterminowanymi, zaprogramowanymi maszynami. Mogłyby niezależnie podejmować decyzje, rozwinąć w sobie poczucie wolności, być takie jak my…
Ale czy ludzie mają w rzeczywistości wolną wolę? A co, jeżeli nasz los jest całkowicie zdeterminowany? Możliwe, że, niczym król Edyp, nie możemy uniknąć przeznaczenia – fatum. Możliwe, tak jak współcześnie twierdzi Sam Harris2, że nasz los jest zdeterminowany od chwili stworzenia. Możliwe, że wszystkie działania człowieka są pośrednio spowodowane wcześniejszymi, często losowymi wydarzeniami i tak naprawdę nie mamy wyboru, który jest warunkiem koniecznym wolnej woli. Nasze wszelkie odczucia mogą być przecież spowodowane chemicznymi reakcjami. Przecież nawet tak potężne uczucie, jakim jest miłość, może zostać sprowadzone w całkowicie poprawny sposób do biologii3. Wydaje nam się tylko, że jesteśmy całkowicie wolni, ale jest to w rzeczywistości niemożliwe do stwierdzenia w związku z ogromną liczbą czynników, które na nas wpływają.

Trudno byłoby uczynić warunkiem wysokiego statusu moralnego coś, co może nas samych nie dotyczyć. Byłoby to zdecydowanie niepraktyczne z punktu widzenia naszego gatunku, więc może i nieprawdziwe (jeśli wyznajemy pragmatyczną teorię prawdy). Należy poszukać jakiegoś lepszego kryterium.

A gdyby tym kryterium uczynić zdolność do odczuwania? Peter Singer uważa, że: „zdolność doznawania cierpień lub zadowolenia jest w ogóle koniecznym warunkiem żywienia jakichkolwiek interesów”4. Wobec tak postawionego argumentu, roboty, aby mieć jakiekolwiek prawa, będące w końcu odbiciem interesów, powinny posiadać zdolność do odczuwania bólu i przyjemności. Wątpię, żeby rozwój techniki potoczył się w taki sposób, aby dać maszynom zdolność odczuwania fizycznego, w związku z tym ból i przyjemność powinny odznaczać się odczuciami psychicznymi albo, jeżeli wziąć pod uwagę platoński dualizm, duchowymi. Gdyby roboty miały prawdziwe emocje, nieważne, czy zaprogramowane, czy chemiczne, należałoby im przyznać status moralny. Ale czy byłby on taki sam jak osoby (a jak wspomniałam wcześniej, aby mówić o morderstwie, robot powinien mieć taki status)?

Choć Peter Singer pewnie odpowiedziałby twierdząco na to pytanie. Ja nie mogę się zgodzić – zdolność odczuwania jest podstawowym kryterium przyznania statusu moralnego, ale nie statusu osoby, który ma o wiele większe znaczenie. Jesteśmy skłonni bronić życia dziecka człowieka, ale nie larwy mrówki, mimo że prawdopodobnie obydwie z tych istot czują. Potocznie i błędnie często zakładamy, że osoba jest synonimem słowa człowiek. Moim zdaniem, ludzkie DNA nie może być kryterium, które zapewnia ten status – w ten sposób choćby moja nerka stałaby się osobą, ponieważ ma ludzki kod genetyczny. Podobnie odłączenie robota od prądu, nawet jeśli uznalibyśmy je za złe pod względem moralnym, nigdy nie byłoby morderstwem.

W takiej sytuacji kuszące zdaje się zastosowanie kryterium społecznego mówiącego o tym, że X jest osobą, jeśli społeczeństwo tak je postrzega lub jeśli jest dla kogoś ważne, co przypomina feministyczną etykę troski. Jednak wydaje mi się ono wadliwe, a przede wszystkim niebezpieczne. Taka teoria mogłaby wspierać faworyzowanie, a także usprawiedliwiać obojętność moralną wobec tych, o których się nie troszczymy. Sądzę, że niesłuszne jest uzależnianie statusu moralnego jednostki od innych jednostek, a nie od niej samej.

Z kolei gdyby kryterium uczynić umiejętność myślenia abstrakcyjnego o uniwersalnych (według poglądu absolutystycznego) wartościach, takich jak sprawiedliwość, wolność czy dobro, musielibyśmy wykluczyć z definicji osoby między innymi małe dzieci. Ale wydaje mi się, że to może być lepszy kierunek. Pewnym rozwiązaniem byłoby zdefiniowanie osoby jako istoty zdolnej do samodzielnej egzystencji i rozwinięcia w sobie myślenia abstrakcyjnego. Ograniczyłoby to niekończące się cofanie w poszukiwaniu momentu początku życia, które może prowadzić do absurdalnych wniosków (Czy płód to osoba?; Czy zarodek to osoba?; Czy komórka jajowa to osoba?; Czy w takim razie używanie antykoncepcji można by nazwać morderstwem?). Jeżeli zamiast myślenia gatunkowego zastosowalibyśmy myślenie jednostkowe, ta definicja mogłaby odnosić się również do robotów. W związku z tym odłączenie robota od prądu byłoby morderstwem, kiedy byłby on zdolny do samodzielnej egzystencji i rozwinięcia w sobie myślenia abstrakcyjnego. Ale już gdyby odczuwał, czynem nagannym moralnie byłoby wyłączenie mu zasilania, co można by porównać do zabójstwa zwierzęcia, ale jeszcze nie do morderstwa.

Sztuczna inteligencja

Podobnie ma się sprawa ze sztuczną inteligencją. Przez to określenie rozumiem niematerialne roboty, roboty przebywające w chmurze, o formie niepozwalającej na ruch fizyczny (choć ten termin sam w sobie zawiera także roboty z poprzedniej kategorii, przyjmę powyższą definicję). Mowa tu o wszelkich programach już dziś istniejących, takich jak Alexa od Amazona czy Siri od Apple’a, a także o wszelkiego rodzaju chatbotach. Jest to chyba najbardziej realny i najbliższy scenariusz ze wszystkich, które przedstawiam.

Pozornie problemem może być brak ciała, trudniej się myśli o istocie niematerialnej jako osobie, ale w gruncie rzeczy większość mojej argumentacji z poprzedniego punktu, można zastosować także w tym przypadku. Należy jednak zaznaczyć, że zdolność odczuwania dotyczy tutaj wyłącznie strefy ducha, ponieważ strefy fizycznej (jak i samego ciała) nie ma.

Problem statusu A.I. jest pokazany choćby w filmie Ona (reż. Spike Jonze, 2012), którego główny bohater zakochał się w systemie komputerowym. Reżyser nie tylko pokazuje zatracanie się ludzkości w technologii, ale także skłania widzów do refleksji nad prawami sztucznej inteligencji. Samantha, tytułowa Ona, ma wolną wolę, umiejętność myślenia abstrakcyjnego, chęć poznania i uczucia. Czy można jej zatem przyznać status moralny? Nie jesteśmy w stanie stwierdzić tego z całkowitą pewnością, gdyż komputer, którego oceniamy, przewyższa nasze możliwości kognitywne. Ale wydaje się, że tak. Wszelkie przesłanki prowadzą do tego, by nadać temu robotowi status moralny osoby.

Czy jednak odłączenie takiego systemu od prądu byłoby morderstwem? Zdaje się, że w tym wypadku nie można mówić o morderstwie. W świecie internetowych baz danych zabicie takiego robota byłoby wręcz niemożliwe. Jak podkreślają znawcy Internetu, w sieci nigdy nic nie ginie – zatem także nikt. Sztuczna inteligencja w takim znaczeniu tego pojęcia stałaby się więc nieśmiertelna.

Ale to nie znaczy, że nie mamy wobec niej obowiązków moralnych. Do tej pory w historii świata nie natknęliśmy się na byty niematerialne, co do których istnienia wszyscy by się zgadzali. Uważam, że należałoby tu stworzyć zupełnie inną kategorię statusu moralnego. Choć sztuczną inteligencję można by nazwać osobą (biorąc pod uwagę kryteria z pierwszej kategorii), to brak ciała jest jednak ważnym jej aspektem i powinniśmy wziąć go pod uwagę. Pytanie, jak sprawdzić, czy sztuczna inteligencja, z która mamy do czynienia, jest osobą.

Alan Turing zaproponował rozwiązanie, które zostało nazwane od jego nazwiska testem Turinga. Polega ono na tym, że przy prowadzeniu rozmowy, maszyna daje takie odpowiedzi, by wydawało się, że się rozmawia z człowiekiem. Wiele chatbotów próbuje osiągnąć ten poziom (jednym z najlepszych obecnie jest Mitsuku5), ale nawet sukces w tej dziedzinie nie oznacza, że automatycznie stają się osobami. Chiński pokój to eksperyment myślowy Johna Searla będący odpowiedzią na test Turinga. Wyobraźmy sobie, że jesteśmy zamknięci w pokoju, do którego ktoś wrzuca kartki z napisami po chińsku. My odpowiadamy na nie według określonych reguł i w efekcie powstaje mająca sens konwersacja w języku chińskim, to jednak nie znaczy, że ją w jakimkolwiek stopniu rozumiemy.

Moim zdaniem ten eksperyment może zaprowadzić nas do wniosku, że za pomocą języka nie jest możliwe ocenienie sztucznej inteligencji „żyjącej” w chmurze. Takie boty mają dostęp do Internetu i w związku z tym do mnóstwa informacji w formie słów, które mogą naśladować. Język, jak dowiódł Searl, można udawać – dałoby się nim posługiwać, nie rozumiejąc go. A drogą do komunikacji ze sztuczną inteligencją bez ciała jest na tę chwilę wyłącznie język. Choć możemy wyznaczyć punkt, kiedy zdobędzie ona status moralny, nie będziemy w stanie się dowiedzieć, kiedy on zostanie przekroczony.

Robot podobny czy może jednak nie?

A teraz wyobraźmy sobie robota, całkowicie zaprogramowanego. A jednak jest podobny do człowieka, ale tylko pod względem wyglądu. W środku to cały czas machina pełna algorytmów. Nie ma własnej woli, nie ma uczuć, ma tylko program, który mówi, co ma robić. Czy taki robot powinien mieć status moralny?

Na pierwszy rzut oka wydaje się, że nie. To nadal rzecz, tylko przypomina człowieka. Trochę jak manekin, rzeźba. Nie mamy wobec niego żadnych obowiązków moralnych. Wyjątek stanowią rzeczy, które mają jakąś wartość dla podmiotów moralnych, na przykład historyczne rzeźby dawnych mistrzów. Teoretycznie wobec Dawida Michała Anioła nie mamy obowiązków moralnych, ale jest on ważny dla wielu ludzi, wobec których już te obowiązki mamy.

W 2015 roku wykonano pewien eksperyment. David Harris Smith i Frauke Zeller zbudowali w Uniwersytecie Ryerson w Toronto małego robota-autostopowicza6. Był on wzrostu dziecka, miał ręce zrobione z makaronów do nauki pływania, ubrano go w kalosze. Wysłano go, by podbił świat.

O dziwo, spotkał się z bardzo dobrym przyjęciem. Zdążył przebyć Kanadę, Niderlandy, Niemcy oraz kawałek Stanów Zjednoczonych, dopóki nie został zniszczony w Filadelfii. Czy zniszczony? Równie często pojawiało się w tym kontekście słowo zabity – na Twitterze7, w tytułach artykułów8 i wielu innych miejscach.

Ludzie zdawali się ze względu na sympatyczny wygląd nadawać maszynie pewne cechy ludzkie i, a jakże, status moralny – ale jakich rozmiarów? Wiele razy wykonywano eksperymenty, w których ludzie mieli niszczyć humanoidalne (nawet w bardzo małej części, jak choćby ze stworzoną schematyczną twarzą) roboty. Okazało się, że osoby o bardziej rozwiniętej empatii mają większy problem z zabiciem lub torturowaniem urządzenia. Jedna z uczestniczek eksperymentu ponoć miała wyjąć robotowi baterie, aby go nie bolało9.

Również kultura popularna stawia przed nami ten problem. Tak się dzieje np. w serialu Czarne lustro. Główna bohaterka odcinka Zaraz wracam (reż. Owen Harris, 2013), Martha, po śmierci partnera decyduje się skorzystać z usługi polegającej na dostarczeniu androida o wyglądzie zmarłego i zaprogramowanego tak, by się zachowywał jak on. Jak się można domyślić, algorytm zawodzi i robot postępuje jak maszyna, a nie jak osoba. Kobieta wspólnie z widzami zastanawia się nad tym, czym to jest. Ostatecznie nie może się przemóc, by cokolwiek z nim zrobić. Decyduje, że znienawidzony humanoid zamieszka na strychu.

„Kto jest okrutny dla zwierząt, staje się brutalny także w stosunku do ludzi. Możemy oceniać serce człowieka przez to, jak traktuje zwierzęta”10. Tak twierdził Kant, jeśli chodzi o zwierzęta i, choć w przypadku zwierząt nie zgadzam się z nim (bo podzielam na ten temat opinię Petera Singera), uważam, że to zdanie jest prawdziwe w przypadku robotów o wyglądzie ludzi. Nie mają one statusu moralnego, ale to, jak je traktujemy, świadczy o nas samych.

Do tej pory omawiałam tylko takie przypadki, kiedy wygląd robota budzi raczej pozytywne odczucia. Ale co, jeśli byłoby odwrotnie? Dolina niesamowitości to hipoteza, którą stworzył Masahiro Mori. Opisuje ona zjawisko, w którym zachodzi zależność: im bardziej robot jest podobny do człowieka, tym cieplejsze uczucia budzi, aż do momentu, gdy wygląda prawie jak człowiek. Wtedy budzi ogromny niepokój. Czy wówczas również można zastosować teorię Kanta dotyczącą zwierząt?

Myślę, że nie mamy i nie będziemy mieli żadnego obowiązku moralnego wobec robotów, które tylko wyglądają jak ludzie. Owszem, to jak je traktujemy, może świadczyć o nas samych, ale nie musi. Bardziej to przypomina biologiczny odruch organizmu niż faktyczny stan naszej moralności. Odłączenie takiego rodzaju robota od prądu nigdy nie stanie się morderstwem.

Transhumanizm

Czym w ogóle jest transhumanizm? Nick Bostrom definiuje go jako ruch podkreślający potrzebę rozwoju ludzkości za pomocą nowych technologii, a także jako badanie konsekwencji oraz potencjalnych szans i zagrożeń związanych z tym ruchem11. Ludzkość od zawsze dążyła do doskonałości. Podkreślał to już Hugo Kołłątaj, który uważał doskonalenie ludzkiego gatunku za obowiązek ludzkości. Z kolei Władysław Tatarkiewicz twierdził, że to właśnie niedoskonałość człowieka popycha nas do doskonałości. Natomiast Friedrich Nietzsche nazywał człowieka liną rozpiętą między zwierzęciem a nadczłowiekiem.

Transhumanizm, inaczej niż wcześniej opisywane kategorie, polega na połączeniu człowieka i robota, a nie odrębnym rozwoju tego drugiego. W tym wypadku nie mają też sensu hipotetyczne rozważania. To już się dzieje i dotyczy bezpośrednio nas – ludzi. Przykładem może być historia słynnego biegacza Oscara Pistoriusa. Nie byłoby w niej nic niezwykłego, gdyby nie to, że ten szybki jak wiatr sprinter nie miał… nóg, a swoje najlepsze czasy (10,91 s na 100 m, 21.30 s na 200 m i 45,07 s na 400 m12) uzyskał dzięki specjalnie dostosowanym protezom.

Medycyna rozwija się coraz bardziej, umożliwiając nam duże modyfikacje ludzkiego organizmu. Przeszczepiamy narządy, wszczepiamy rozruszniki serca, tworzymy zaawansowane technologicznie protezy oraz sztuczne organy. Do tej pory używaliśmy nowych technologii tylko do naprawy tego, co nie działa w naszym ciele. Ale co by się stało, gdybyśmy zaczęli zmieniać to, co funkcjonuje (ale nie tak dobrze jakbyśmy chcieli), na lepsze?

W przypadku transhumanizmu wydaje mi się, że należałoby postawić pytanie brzmiące: kiedy odłączenie od prądu przestałoby być morderstwem. Transludzie to w końcu nadal ludzie (tak?), więc powinny dotyczyć ich te same prawa.

Jednak transhumanizm cechuje się trzema celami – superinteligencją, superdługowiecznością i superdobrobytem. Wszystkie z tych rzeczy mogą wpływać w jakimś stopniu na nasze człowieczeństwo – nie będziemy się mylić, czas może stracić dla nas znaczenie, śmierć nie byłaby istotna w perspektywie nieśmiertelności… Ale czy te aspekty faktycznie mają wpływ na nasz status moralny? Zachowując kryterium podane przeze mnie w pierwszej części pracy (dotyczące czucia oraz świadomej egzystencji) i zakładając, że ludzie w procesie doskonalenia nie pozbawiliby się tych cech, omówię kilka przypadków.

Jeśli chodzi o nieomylność, problem statusu moralnego sam by się rozwiązał – odkryto by prawdę, jak należy postępować w każdej sytuacji i nie byłoby miejsca na błędy. Jednak osiągnięcie nieomylności jest praktycznie niemożliwe, a w dodatku niepożądane i w związku z tym nieprawdopodobne. Przyczyniłoby się bowiem do usunięcia różnorodności, którą jako gatunek bardzo w sobie cenimy. Sama uważam te różnice między ludźmi za piękne – to dzięki nim można np. filozofować. Oprócz tego ludzie (na przykład ci, którzy nie chcieliby stać się transludźmi) byliby niepotrzebni – wszelkie ich odkrycia i wynalazki zostałyby uprzedzone przez dokonania sztucznej inteligencji, co rodzi poważne problemy natury egzystencjalnej13. Gdyby tak się stało, mogłoby to okazać się paradoksalnie bardzo szkodliwe do dalszego rozwoju ludzi w innym zakresie niż fizycznym. Uważam, że rozwój u transludzi nieograniczonej inteligencji byłby zbyt ryzykowny.

Z kolei długość życia nie ma znaczenia dla statusu moralnego. Zakładamy, że zdobywamy go z chwilą przyjścia na świat (czyli kiedy jesteśmy już gotowi do samodzielnego istnienia oraz mamy potencjał rozwinięcia w sobie indywidualnego myślenia) i mamy przez całe życie. Przecież, gdy się zestarzejemy, nasz status moralny nie maleje. Czas nie ma na niego wpływu.

Zapomnienie i definitywny koniec naszego życia jest jednym z największych lęków ludzkości. Nawet w przypadku długowieczności, śmierć nie przestałaby być czymś strasznym. Obecnie jest ona nieunikniona, ale, gdyby postludzie mogli ją powstrzymać, eliminując choroby i starzenie się organizmu, stałaby się dla nich jeszcze bardziej przerażająca, bo rzadka i niespodziewana. Morderstwo poprzez wyłączenie zasilania nadal budziłoby trwogę, tak samo jak inne tego rodzaju zbrodnie. Mogłoby się to zmienić chyba wyłącznie wtedy, gdyby w procesie doskonalenia usunięto wymienione kryteria bycia podmiotem moralnym lub osobą. Sądzę, że to by się raczej nie wydarzyło, bo ludzkość od zawsze ceni uczucia, indywidualność i wrażliwość.

Postludzie mieliby prawdopodobnie taki sam status moralny, jak ludzie. Jeślibyśmy zachowali (jako jeszcze transludzie) różnorodność i możliwość mylenia się, niczym istotnym byśmy się nie różnili od obecnych ludzi, wyjąwszy sprawniejsze ciało. Uważam, że doskonalenie umysłu za pomocą technologii jest bardzo złym pomysłem, ponieważ nie wiadomo, gdzie należy postawić granicę. Gdybyśmy w końcu wiedzieli wszystko, może faktycznie stalibyśmy się identycznymi maszynami.

Kiedy problem badawczy stanie się problemem praktycznym

Wybierając ten temat, myślałam, że dotyczy on problemu wyłącznie z obszaru utopii bądź dystopii, dziś wiem, że się myliłam. Technologia rozwija się tak szybko, że wysoko rozwinięte roboty stały się częścią naszej rzeczywistości. Nie wiadomo jeszcze, kiedy osiągną one status moralny, ale moim zdaniem już dziś zasługują na krytyczny nad tym namysł. Mógłby się ze mną zgodzić Eric Schwitzgebel, który uważa, że jako twórcy robotów, jesteśmy im w pewnym stopniu coś winni (podobnie jak rodzice dziecku)14.

Na razie jednak są to urządzenia stworzone w konkretnym celu i często nawet nie byłoby pożądane, by choć zbliżyły się do osiągnięcia statusu moralnego. Wiele z nich realizuje ludzką potrzebę posiadania wysokiego statusu społecznego, pełniąc funkcję nowoczesnego sługi (jak ASIMO albo Google Home Assistant). Niektóre jednak mają ważniejsze zadania. EKSO GT to robot służący do rehabilitacji osób z urazem rdzenia kręgowego. Trwają też pracę nad wykorzystywaniem zaawansowanych technologicznie urządzeń przy nauce dzieci ze spektrum autyzmu, np. robot NAO stworzony w firmie Softbank Robotics może pomagać im w rozpoznawaniu emocji15. Już dzisiaj dostrzega się oraz wykorzystuje potencjał, jaki daje sztuczna inteligencja i robotyka.

Jednak często roboty nie mają wyraźnego celu swojej egzystencji, nie odpowiadają na żadne potrzeby ludzi lub służą po prostu do rozrywki. Tworzy się je niekiedy, by stworzyć iluzję bycia człowiekiem, jako pewnego rodzaju sztuczkę magiczną. Skonstruowana w firmie Hanson Robotics Sophia, będąca przykładem takiego robota, jest, można powiedzieć robotyczną celebrytką i otrzymała nawet obywatelstwo Arabii Saudyjskiej16. Podobnie stało się z Shibuya Mirai (dosłownie Shibuya stanowi nazwę japońskiej dzielnicy, a słowo mirai oznacza przyszłość), chatbotem o tożsamości siedmiolatka, który otrzymał kartę mieszkańca Tokio17. Możliwe, że te sytuację dowodzą, jak zmienia się postrzeganie przez nas sztucznej inteligencji.

Ciekawym przypadkiem jest Akihiko Kondo, mężczyzna, który poślubił hologram18. Oczywiście małżeństwo nie zostało uznany prawnie, ale sama idea ślubu z technologią jest niczym wyjęta z książek fantastyczno-naukowych. W 2016 roku francuska, Lilly, twierdziła, że kocha robota wydrukowanego w 3D19. Ludzie tacy jak Kondo i Lily są digiseksualni, czyli czują pociąg seksualny do robotów. Spotyka się to często z oporem społeczeństwa, ale co będzie, jeśli w przyszłości stanie się to normą? Nie powinno to nastąpić, dopóki roboty nie zyskają statusu moralnego osoby.

Podsumowanie

W niniejszej pracy na początku uściśliłam pojęcie statusu moralnego, definiując go, jako informację wobec czego mamy obowiązki moralne. Zauważyłam też, że roboty, mimo braku biologicznego organizmu, mogą żyć, oraz że morderstwo to termin dotyczący wyłącznie zabójstwa osoby.

W kolejnych częściach opisałam różne przypadki, przy których można rozważać status moralny robotów. W przypadku humanoidów posiadających inteligencję na wzór ludzkiej, status moralny jest możliwy, gdy będą w stanie odczuwać, zaś status moralny osoby wtedy, gdy jest ona w stanie samodzielnie istnieć i rozwinąć w sobie umiejętność myślenia abstrakcyjnego. Zauważyłam też, że ani wolność, ani postrzeganie przez społeczeństwo, nie byłyby dobrymi kryteriami dotyczącymi statusu osoby.

Następnie rozważyłam sytuację sztucznej inteligencji, która nie ma ciała. Choć tutaj przyjęłam takie same warunki statusu moralnego i statusu osoby jak w pierwszym przypadku, stwierdziłam, że niemożliwym byłoby ten status ocenić, ponieważ jedynym dostępnym narzędziem do takiej oceny jest język, a jego może sztuczna inteligencja używać, nie znając prawdziwego znaczenia słów, a wiec, co za tym idzie, przekazu.

Potem przyjrzałam się sytuacji, gdyby robot wyglądał jak człowiek, ale miał nadal rozum maszyny. Uznałam, że w takim przypadku nie spełniałby on moich założeń co do statusu moralnego, więc nie mógłby go mieć. Mimo wszystko to, jak go traktujemy, mogłoby świadczyć o nas samych.

W ostatnim przypadku rozważyłam scenariusz związany z transhumanizmem. Doszłam do wniosku, że najważniejsze cechy trans- lub postludzi – superinteligencja, superdługowieczność i superdobrobyt – nie mają wpływu na ich status moralny, więc w związku z tym zachowaliby oni status moralny obecnych ludzi.

Na końcu zauważyłam, że powyższe rozważania nie miały charakteru wyłącznie teoretycznego, a problem statusu moralnego robotów już nas dotyczy, ponieważ już dzisiaj powstają skomplikowane roboty. Wymieniłam przypadki, gdy androidy są tworzone w konkretnym celu – na przykład ku zaspokojeniu różnych potrzeb ludzi lub ku rozrywce. Zauważyłam też, jak bardzo zmienia się nasz stosunek do robotów – od nadania im dokumentów, po okazanie im naszej miłości.

Konkludując, można by zadać pytanie, czy przy zachowaniu wymienionych w pracy kryteriów, w umysłach niektórych nadanie statusu moralnego robotów nie zachodzi nazbyt szybko. A być może po prostu nasza refleksja przestała nadążać za rozwojem technologicznym.


  1. Zob.: Mary Anne Warren, Status moralny. Obowiązki wobec osób i innych istot żywych., tłum. Sergiusz Tokariew, Wydawnictwo Uniwersytetu Łódzkiego, Łódź 2019, str. 26.
  2. Zob.: Sam Harris, Free Will, Wydawnictwo Free Press, 2012, str. 5.
  3. Zob.: Janusz L. Wiśniewski, Czy miłość to tylko (neuro)peptyd?, wykład TEDxPoznań, https://www.youtube.com/watch?v=uf7g7oriuXM (dostęp w dniu: 03.11.2020).
  4. Peter Singer, Zwierzęta i ludzie jako istoty równe sobie, tłum. Zbigniew Szawarski, [w:] „Etyka” 18 (1980), str. 51.
  5. Zob.: www.pandorabots.com/mitsuku/ (dostęp w dniu 03.11.2020).
  6. Zob.: Leopold Todd, HitchBOT, the hitchhiking robot, gets beheaded in Philadelphia, https://edition.cnn.com/2015/08/03/us/hitchbot-robot-beheaded-philadelphia-feat/index.html (dostęp w dniu: 04.11.2020).
  7. Por.: https://twitter.com/Ricthescifinerd/status/628304907578277888?ref_src=twsrc%5Etfw%7Ctwcamp%5 Etweetembed%7Ctwterm%5E628304907578277888%7Ctwgr%5Eshare_3&ref_url=https%3A%2F%2Fwww.nytimes.com%2F2015%2F08%2F04%2Fus%2Fhitchhiking-robot-safe-in-several-countries-meets-its-end-in-philadelphia.html (dostęp w dniu: 02.11.2020).
  8. Por.: https://www.bbc.com/news/technology-47090174 (dostęp w dniu: 02.11.2020).
  9. Zob.: Jane Wakefield, Can you murder a robot?, https://www.bbc.co.uk/sounds/play/w3csyy38 (dostęp w dniu: 02.11.2020).
  10. “For he who is cruel to animals becomes hard also in his dealings with men. We can judge the heart of a man by his treatment of animals.”, [w:] James Rachels, The Right thing to do: basic readings in moral philosophy, tłum. J.K., Wydawnictwo Random House, Nowy Jork, 1989, str. 210.
  11. Zob.: Wywiad z profesorem Nickiem Bostromem: Transhumanizm jest sposobem myślenia o przyszłości, [w:] „Filozofuj!” nr 6 (18), 2017, str. 24-25.
  12. Zob.: https://en.wikipedia.org/wiki/Oscar_Pistorius (dostęp w dniu: 15.11.2020).
  13. Zob.: Nick Bostrom, Super inteligencja: scenariusze, strategie, zagrożenia, tłum. Dorota Konowrocka-Sawa, Wydawnictwo Helion, Gliwice 2016, str. 22.
  14. Zob.: Eric Schwitzgebel, We have greater moral obligations to robots than to humans, https://aeon.co/ideas/we-have-greater-moral-obligations-to-robots-than-to-humans (dostęp w dniu: 15.11.2020).
  15. Zob.: Becky Ham, Personalized „deep learning” equips robots for autism therapy, https://news.mit.edu/2018/personalized-deep-learning-equips-robots-autism-therapy-0627 (dostęp w dniu: 15.11.2020).
  16. Zob.: Alistair Walsh, Saudi Arabia grants citizenship to robot Sophia, https://www.dw.com/en/saudi-arabia-grants-citizenship-to-robot-sophia/a-41150856 (dostęp w dniu: 15.11.2020).
  17. Zob.: Anthony Cuthbertson, Tokyo: artifical intelligence ‘Boy’ Shibuya Mirai becomes world’s first AI bot to be granted residency, https://www.newsweek.com/tokyo-residency-artificial-intelligence-boy-shibuya-mirai-702382 (dostęp w dniu: 15.11.2020).
  18. Zob.: Alex Williams, Do you take this robot…, https://www.nytimes.com/2019/01/19/style/sex-robots.html, (dostęp w dniu: 15.11.2020).
  19. Ibid.

Bibliografia:

Tagi:

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Skip to content