Trendy |

Dlaczego myślimy, że roboty chcą nas zabić?03.08.2020

ilustracja: Kuba Ferenc | animacja: Paweł Szarzyński Kinhouse

Roboty z Boston Dynamics budzą zarówno podziw, jak i przerażenie. Skąd ono się bierze? Z popkultury. 

Boston Dynamics to amerykańska firma (kiedyś należała do Google, dziś do japońskiego SoftBanku) zajmująca się robotyką. Od lat dzięki umieszczanym w sieci filmikom można śledzić postępy w rozwoju dwóch prototypów – androida oraz psa-robota. Ten drugi trafił już do sprzedaży – nazwany Spot (Ciapek) kosztuje „jedynie” 74,500 dolarów. Potrafi chodzić po schodach i trudnym terenie, a do tego jest niewielki na tyle, by sprawdzić się w różnych zastosowaniach. Jedną z pierwszych misji, do których został najęty, były patrole w czasie restrykcji związanych z pandemią COVID-19. 

Zabójczy pies

Spot został zaprojektowany przez inżynierów, dla których najważniejsza jest jego funkcjonalność. Mówię o nim „pies” tylko dlatego, że jest rozmiaru psa i porusza się na czterech kończynach; na tym podobieństwa się kończą – nie ma nawet głowy, a dizajnem przypomina roboty przemysłowe – maszyny przeznaczone do pracy. Nawet jego kolorystyka – czarny połączony z żółtym – to industrialne barwy; tak sprzedaje się młotki. To zupełne przeciwieństwo AIBO, inteligentnego pieska sprzedawanego przez firmę Sony, który został stworzony jako przemiłe, elektroniczne stworzenie – jego zadaniem nie jest penetrowanie korytarzy w fabryce skażonej chemicznie czy przenoszenie pakunków, a bycie towarzyszem człowieka. AIBO potrafi się bawić, wyrażać emocje i budować ułudę przywiązania. 

Ocieplaniem wizerunku bostońskiego robopsa zajmuje się Aigency, kręcąc z nim śmieszne filmy na Tik Toku. Ale czy to ten brak emocji wystarcza, aby odpowiedzieć, dlaczego ludzie kochają AIBO, a lękają się bezdusznego Spota? Nie sądzę. Nie pamiętam, żeby ktoś reagował lękiem na widok przemysłowych robotów, które przecież potrafią być niebezpieczne (dla obsługi nieprzestrzegającej BHP), a na pokazach walczą ze sobą wymachując katanami. Są jednak wielkie, ciężkie i przymocowane do podłogi. W Spocie przeraża jego kompetencja – to robot, który potrafi. Potrafi chodzić, potrafi wchodzić, a przewrócony – wstaje. Zupełnie jak Terminator. 

Czarne lustro – Twardogłowy | Oficjalny zwiastun | Netflix

Żerujący na technofobii twórcy serialu Czarne lustro nakręcili więc odcinek pod tytułem Twardogłowy. To prosta historyjka o tym, że bezgłowe psie roboty biegają po wymarłej Ziemi, polując na niedobitki ludzkości. Szybka odpowiedź na prosty lęk publiczności: „A co będzie, jak tym bostońskim pieskom zainstaluje się karabin? Ratunku, Terminator!”. Tak dokładnie na filmy z jeszcze wczesnymi wersjami Spota zareagował m.in. Rafał Brzoska, prezes Inpostu. Zobaczył psa-robota i ujrzał w nim bazę, żeby stworzyć maszynę do zabijania. 

Granice metafory

Terminator i inne dzieła science-fiction lubią figurę robota-mordercy, bo to metafora bezdusznego zabójcy – czegoś, co nie będzie mieć żadnych ludzkich odruchów. Film Jamesa Camerona nie chciał wcale straszyć elektronicznym mordercą – wyrażał lęki czasów zimnej wojny, gdy wszyscy czekali na atak jądrowy. To film o tym, że ludzie mogą się stać takimi maszynami. Gdy już się wciśnie przycisk, a rakieta ruszy w drogę, to już koniec – nie ma miejsca na negocjacje. O tym, że istotny jest moment przed uruchomieniem maszyny śmierci, opowiadały Gry wojenne – optymistyczna w wymowie historia, w której bezsens wojny można zrozumieć dzięki grze w kółko i krzyżyk. 

Terminator 2 opowiadał już o czymś innym – przybyły z przyszłości robot-zabójca przebiera się za policjanta, co stanowiło komentarz Camerona na temat brutalności amerykańskiej policji. „Gliny myślą, że wszyscy, którzy nie są gliniarzami, są od nich gorsi, głupi, słabi i źli. Dehumanizują ludzi, których przysięgli chronić, i znieczulają, aby wykonać tę pracę ”– mówił w książkowym wywiadzie w 2010 r. Nikt nie potrzebuje psa robota z karabinem, żeby stosować przemoc. Wystarczy, że sam czuje się Robocopem. 

Ale problem z fantastycznymi metaforami polega na tym, że są metaforami. Publiczność nie zawsze boi się tego, co mają symbolizować – i zaczyna lękać samej metafory, w tym wypadku – zabójczego robota. Androidy budzą nieufność – są oszustami podszywającymi się pod ludzi; przeraża też nieludzki sposób, w jaki myślą. Taki lęk pokazał film „Ja, robot” z Willem Smithem, luźno oparty na prozie Isaaca Asimova. Bohater, policjant przyszłości grany przez Smitha, nienawidzi robotów. Chociaż wszyscy wokół bez problemu korzystają z ich pomocy i usług, on im nie ufa. Dlaczego? Bo kiedyś robot uratował mu życie, pozwalając przy tym utonąć małej dziewczynce – z obliczeń wyszło mu bowiem, że to mężczyzna ma większą szansę na przeżycie. Chłodno kalkulujący ludzkie życie robot staje się zatem obiektem nienawiści. To uzasadniony lęk, ale z jakiegoś powodu bohater miał problem nie z algorytmami, a androidami. Jego trauma nie przeszkadzała mu np. w korzystaniu z autonomicznego samochodu. Może dlatego, że nie wygląda jak człowiek?

Trzy prawa robotyki

Lęk przed robotem, który jak monstrum doktora Frankensteina zwraca się przeciwko swojemu twórcy, to jeden z najstarszych wątków fantastyki. Isaac Asmov we współpracy z redaktorem Johnem W. Campbellem sformułował więc „Trzy prawa robotyki” (były elementem fabuły wspomnianego filmu). W opowiadaniu „Zabawa w berka” z 1942 r. znalazły się zatem następująco sformułowane prawa:

  1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
     
  2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
     
  3. Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

Gdyby te prawa faktycznie działały, nie byłoby ani Terminatora, ani morderczego Hektora z horroru Saturn 3, ani Matrixa, ani tym bardziej zbuntowanych Cylonów z Battlestar Galactica. Tymczasem mordercze roboty istnieją naprawdę, bo żadne prawo robotyki nie zabezpieczy przed wpadką inżyniera. Czytałem o tym w dzieciństwie w fascynującej książce Nowoczesne zabawki Janusza Wojciechowskiego, jednej z najważniejszych pozycji, które mnie uformowały. Obok osiągnięć radzieckiej cybernetyki i opisów przeróżnych cudów elektroniki rozrywkowej jeden rozdział był poświęcony historii robotów, z którego najbardziej zapadły mi w pamięć roboty-mordercy. Ciężkie metalowe bydle, które ruszyło znienacka i rozsmarowało swojego twórcę na ścianie. Inżynier zabity niedokręconą ręką maszyny, która spadła mu na głowę. Elektroniczny Dziadek Mróz, który po przepięciu oszalał i zdemolował wystawę. I żaden z nich tak naprawdę nie złamał pierwszego prawa robotyki.

Boston Dynamics "Spot" and Softbank Robotics "Pepper" Collaborative Robot dance

Błędy projektowe to rzecz, którą należy się martwić. Mam w domu kilka robotów-zabawek, edukacyjnego androida Lego Mindstorms i moją ukochaną Roombę, dzięki której nie muszę sam biegać z odkurzaczem. I tak wygląda „fantastyka kontra rzeczywistość” – zamiast Terminatora mam piszczącą bezradnie „error, error!” maszynę zaplątaną w sznurowadło. Znane są jednak przypadki, gdy automatyczny odkurzacz narobił kłopotów – od dość komicznego rozsmarowania psiej kupy po całym mieszkaniu, po mrożącą krew w żyłach przygodę mojego znajomego – zawiódł wykrywacz krawędzi i Roomba skoczyła z antresoli. Strach pomyśleć co by było, gdyby spadła komuś na głowę.

Niewidzialny zabójca

Boimy się androidów i robo-psów, bo wyglądają jak coś, co znamy. Lęk przed Spotem to cyberpunkowa wersja strachu przed złym wilkiem z Czerwonego Kapturka. Tymczasem powinniśmy lękać się czegoś innego – algorytmów. Niewidzialnej siły podejmujących decyzje poza ludzką kontrolą. Gazeta Wyborcza opublikowała kiedyś fascynujący reportaż wcieleniowy Piotra Szostaka, który zatrudnił się na czarno w Uber Eats: „Aplikacja się myli. Czasem wysyła mnie po odbiór pizzy, ale w restauracji dowiaduję się, że jestem już czwartym kurierem po to samo zamówienie, które odebrał już pierwszy dostawca”. Firmie jest oczywiście przykro, ale chowa się za algorytmem. 

Tymczasem każdy algorytm ktoś musiał zaprojektować, podjąć różne decyzje, zanim komputery wprowadziły ją w życie. Często zły algorytm to wynik złego projektu (np. gdy twórcy zegarka Apple zapomnieli o istnieniu osób, które menstruują), a czasem błędu czy niekompetencji inżyniera. To rzeczy, które trzeba kontrolować zanim ktoś naciśnie przycisk „start” i zabójcza maszyna ruszy w świat. 

Pisarz, publicysta, popularyzator japońskiej popkultury i fantastyki. Nominowany do Nagrody Conrada za debiut roku. Autor powieści „Jetlag” (2014), „God Hates Poland” (2015) i „Hello World” (2017) oraz zbioru felietonów „Jeśli zginiesz w grze, zginiesz naprawdę” (2014). Współpracuje z „Gazetą Wyborczą”, „Polityką”, magazynem „Pixel” i „Dwutygodnikiem”. Publikował m.in. w „Nowej Fantastyce”, „Tygodniku Powszechnym”, „Premierach” i „Esensji”. Były redaktor naczelny magazynu „Kawaii”. Prowadził blog „Pattern Recognition”.

zobacz także

zobacz playlisty