Trendy |

Pandemia pod specjalnym nadzorem04.06.2020

ilustracja: Kuba Ferenc | animacja: Paweł Szarzyński Kinhouse

Wszyscy jesteśmy śledzeni, profilowani i targetowani. Śledzeni. Profilowani. Targetowani. Te słowa stały się dla nas prawie przezroczyste. Nie zauważamy ich policyjnego rodowodu. Przyjmujemy, że cyfrowe ślady są zbierane dla naszej wygody i user experience, i dlatego nie mamy serca się gniewać na trackery, które ukradkiem depczą nam po piętach. Istnieją jednak inne, można by powiedzieć: parakryminalne wersje tej historii. Warto je przypominać i na bieżąco aktualizować w trakcie pandemii, kiedy kolejni wizjonerzy przynoszą w prezencie dla ludzkości coraz bardziej zaawansowane i wszechobecne formy nadzoru.

Po skandalu w 2018 r. stało się jasne, że platformy cyfrowe mogą zagrażać demokracji; że te same narzędzia, które nakłaniają nas do kupowania butów i lodów, mogą zostać wykorzystane do wciskania nam szkodliwych polityków (jak Donald Trump) i projektów politycznych (jak Brexit); do szerzenia dezinformacji i orkiestrowania manipulacji; do „personalizacji” niewiedzy i uprzedzeń; do wytwarzania „efektu synergii” między błędami poznawczymi i fake newsami. Wiedza to władza, Big Data to nie tylko Big Money, ale także Big Power.

Znacznie rzadziej mówi się o tym, że domyślnie i by design każdy internauta to potencjalny terrorysta (a jak pokazał kilka dni temu Donald Trump, definicja terroryzmu jest bardzo elastyczna i np. w Stanach Zjednoczonych może obejmować poglądy antyfaszystowskie). Według ustaleń Shoshanny Zuboff, internet wyglądałby dziś zupełnie inaczej, gdyby nie ataki na World Trade Center i Pentagon w 2001 r. Skala cyfrowej inwigilacji jest więc pochodną rozpoczętej niemal dwie dekady temu „wojny z terroryzmem”. Po tragedii 11 września kwestia prywatności internautów została zepchnięta na margines. Z dnia na dzień nacisk obrońców praw obywatelskich zelżał, a plany nałożenia regulacji na sektor technologiczny trafiły do niszczarki.

Z biegiem czasu awaryjne środki ostrożności stały się nieodłącznym elementem życia, stan wyjątkowy okazał się regułą, a internauci zdążyli się przyzwyczaić do braku prywatności.

Jednocześnie zapaliło się zielone światło dla kapitalizmu inwigilacyjnego (surveillance capitalism). W ciągu kilku lat wykrystalizował się nowy model biznesowy oparty na analizie i przewidywaniu naszych zachowań online (głównie z myślą o wyświetlaniu reklam i sprzedaży produktów, choć nie tylko). Cele firm technologicznych i służb państwowych były różne, ale ich interesy okazywały się na ogół zbieżne, wspólna była także infrastruktura, dofinansowana zresztą przez fundusze CIA i NSA (czyli Narodową Agencję Bezpieczeństwa).

Z biegiem czasu awaryjne środki ostrożności stały się nieodłącznym elementem życia, stan wyjątkowy okazał się regułą, a internauci zdążyli się przyzwyczaić do braku prywatności. Amerykańskie korporacje takie jak Facebook czy Google wiedzą o nas wielokrotnie więcej niż legendarna Stasi o dysydentach w dawnej NRD. W razie potrzeby udostępniają informacje organom władzy państwowej, także w Polsce. Jak pokazała amerykańska dziennikarka Julia Angwin, bez hackerskich umiejętności możemy uniknąć cyfrowego nadzoru tylko w jeden sposób: pozbywając się smartfonów (i, rzecz jasna, wszystkich innych urządzeń osobistych z dostępem do internetu – tabletów, laptopów, wearables, inteligentnych zegarków itd.). Teraz jednak urabia się nas do podążania w przeciwnym kierunku, a ton nadają technologiczni guru z Erikiem Schmidtem i Billem Gatesem na czele.

Przez kilka ostatnich lat nad Doliną Krzemową znów zbierały się czarne chmury regulacji. Największą burzę wywołał oczywiście wspomniany już skandal Cambridge Analytica dotyczący mikrotargetowania fake newsów w kampanii prezydenckiej Donalda Trumpa na Facebooku. Jednak różnego rodzaju nadużyć było więcej, choćby na YouTube’ie czy TikToku (o czym mogą świadczyć kary finansowe nałożone na te platformy przez Federalną Komisję Handlu). 

Cena strachu

Prace nad nowymi regulacjami sektora Big Tech znów zahamował kryzys, tym razem epidemiczny. W wypowiedziach polityków po raz kolejny pojawia się retoryka wojny, w wielu krajach zapanowała atmosfera strachu, wzbierają nawet nastroje apokaliptyczne. Czy ponownie będziemy postawieni przed wyborem pomiędzy wolnością a bezpieczeństwem? Czy pandemia COVID-19 jeszcze bardziej rozszerzy granice inwigilacji? Czy po jednym kroku w przód znów trzeba będzie wykonać dwa kroki do tyłu? 

Trudno się dziwić, że w epoce zaawansowanego nadzoru na giełdę cudownych rozwiązań trafiły rozmaite narzędzia do monitoringu, rozwijane już wcześniej z myślą o potrzebach wojska, policji, wywiadu czy służb granicznych. Dla producentów tego typu urządzeń pandemia stanowi dodatkowe źródło biznesu, szansę wyjścia poza przypisaną dotąd, wąską na ogół, niszę.

Relacje medialne przypominają dystopijne wizje rodem z Netfliksowego Czarnego lustra. Ich cechą charakterystyczną jest obecność wyspecjalizowanego hardware’u – widzialna forma, która działa na wyobraźnię, eksponuje mechanikę i spojrzenie władzy. Do tej kategorii zaliczają się m.in. krążące nad miastami drony, które monitorują skupiska ludności; kamery uliczne mierzące dystans między przychodniami; bramki termowizyjne, strzegące wstępu do sklepów, miejsc pracy czy środków transportu. Wygląda na to, że możemy być obserwowani i poddawani pomiarom z każdego kąta widzenia, z dowolnej odległości i z wielu punktów na raz. Tylko czy na pewno tego potrzebujemy?

Przypadek termowizji

Celowo odsuwam na bok kwestię aplikacji do namierzania kontaktów zakaźnych (contact tracing), która jest od tygodni dyskutowana w mediach. Zamiast tego sięgnijmy po przykład termowizji, czyli technologii obrazującej promieniowanie cieplne. Przy bliższym wejrzeniu budzi ona szereg wątpliwości natury praktycznej, prawnej i społecznej. Możliwy margines błędu na poziomie 1,5 stopnia Celsjusza to różnica pomiędzy normalną temperaturą ludzkiego ciała a gorączką. Przy pomiarach wykonywanych z daleka, precyzja gubi się jeszcze bardziej (w związku z czym kuriozalne wydają się rozwiązania w rodzaju dronów termowizyjnych latających nad przestrzenią miasta). Co więcej, w zależności od osoby i części ciała normalna temperatura może się wahać w granicach 2 stopni. Najważniejsze jednak, że podwyższona temperatura nie jest objawem jednoznacznie wskazującym na COVID-19. Może pojawić się dopiero po kilku dniach, może nie wystąpić w ogóle, może towarzyszyć innym schorzeniom (innym infekcjom, nadczynności tarczycy), a także niechorobowym stanom organizmu (jak np. stres czy przegrzanie). Jak tłumaczą eksperci, termowizja ma w tym przypadku bardzo ograniczoną skuteczność, istnieje też ryzyko, że będzie wywoływać fałszywe poczucie bezpieczeństwa.

Mimo to w Stanach Zjednoczonych gwałtownie rośnie popyt na urządzenia termowizyjne (liderzy rynku FLIR Systems donoszą o skoku sprzedaży na poziomie 700%). Technologia została zainstalowana m.in. w niektórych sortowniach Amazona. W związku z tym nasuwa się refleksja, że w miejsce kontrowersyjnych rozwiązań technologicznych należałoby wprowadzić niezbędne zabezpieczenia socjalne, nie tylko na czas pandemii. Przecież pracownik na ogół potrafi ocenić, że źle się czuje, jest nawet w stanie zmierzyć sobie temperaturę. Tylko co z tego, jeśli nie ma ubezpieczenia i musi pracować nawet kilkanaście godzin w ciągu doby? Albo za każdym razem, kiedy idzie na zwolnienie ryzykuje utratą pracy?

W Polsce oraz innych krajach Unii Europejskiej termowizja napotyka także opór materii prawnej. Przesiewowy pomiar przy wejściu do zakładu pracy nie gwarantuje ochrony bardzo wrażliwych danych o zdrowiu pracownika i może być niezgodny z RODO. Co więcej, jak zwracał uwagę prezes UODO, „przepisy prawa nie regulują, jaka wysokość temperatury daje podstawę do stwierdzenia, że pracownik jest chory [na COVID-19]”. Czy tak niedokładna i niekonkluzywna metoda uzasadnia naruszenie prawa do prywatności, nawet w imię domniemanego dobra publicznego? Czy nie istnieją bardziej skuteczne albo mniej intruzywne alternatywy?

Najbardziej zasadnicze wydają się jednak wątpliwości natury społecznej. Czy pomiary termowizyjne powinny decydować o dostępie do stanowiska pracy, przestrzeni publicznej albo środków transportu? Nieuchronnie pogłębiałyby one istniejące już nierówności, tradycyjnie uderzając w osoby najbardziej poszkodowane (np. bez mieszkania, bez samochodu, opieki czy możliwości pracy zdalnej). Nawiasem mówiąc, ten sam problem dotyczy certyfikatów odporności (immunity passports), rozwiązania propagowanego m.in. przez Billa Gatesa. Wyczerpującą analizę tego zagadnienia przygotowała Fundacja Panoptykon, dlatego wspomnę tylko o jednym, najbardziej niepokojącym aspekcie. Certyfikaty uprawniające do przebywania w miejscach publicznych miałyby trafiać do osób, które przeszły chorobę (mimo że wciąż niewiele wiadomo o nabywaniu odporności na COVID-19). Dla osób w trudnej sytuacji ekonomicznej byłaby to zachęta do zarażania się wirusem w celu zdobycia certyfikatu – swego rodzaju przepustki na rynek pracy, priority pass w realiach rosnącego bezrobocia. 

Rozpoznawanie władzy

Wprowadzenie „certyfikatów odporności” wiązałoby się najprawdopodobniej z zastosowaniem technologii rozpoznawania twarzy (face recognition). To już częściowo oswojona, a zarazem najbardziej opresyjna z rozważanych obecnie form nadzoru. Powinniśmy być szczególnie wyczuleni na próby przemycenia jej do przestrzeni publicznej albo państwowych procedur, np. pod pretekstem walki z pandemią. 

W Stanach Zjednoczonych nie cichną kontrowersje związane z firmą Clearview AI, która dysponuje najskuteczniejszym na świecie systemem face recognition oraz bazą danych liczącą 3 miliardy zdjęć (a więc siedmiokrotnie większą niż dataset w posiadaniu FBI). Wiele wskazuje na to, że baza została zebrana przez niedozwolone scrapowanie mediów społecznościowych i stron internetowych. Usługa jest zintegrowana m.in. z okularami rozszerzonej rzeczywistości (augmented reality), które umożliwiają natychmiastową identyfikację tożsamości w trakcie działań operacyjnych.

Stosowane na masową skalę rozpoznawanie twarzy stanowi poważne wyzwanie dla demokracji. Pozwala automatycznie scrapować z przestrzeni publicznej dane na temat zachowań, zwyczajów i społecznych powiązań jednostki. Ułatwia wyłapywanie oraz prześladowanie politycznych oponentów, demonstrantów, przedstawicieli dyskryminowanych mniejszości czy aktywistów.

Jak wykazało śledztwo dziennikarskie Luke’a O’Briena z Huffington Post, firma ma liczne powiązania ze skrajną prawicą, alt-rightem, neonazistami i białymi suprematystami, popierającymi politykę Donalda Trumpa. Według ustaleń O’Briena twórcy Clearview AI pragną obalenia demokracji i ustanowienia nowego porządku geopolitycznego, a pierwszym punktem w realizacji tego planu ma być pozbycie się imigrantów bez prawa pobytu w USA. System już wykorzystywany jest do tego celu, posługują się nim m.in. ICE (Służby Imigracyjne i Celne) oraz kilkaset placówek amerykańskich organów ścigania. Algorytmy miały być celowo trenowane w taki sposób, żeby z dużą dokładnością rozpoznawać mniejszości rasowe, w szczególności Afroamerykanów (co było dotąd słabą stroną technologii face recognition).

Stosowane na masową skalę rozpoznawanie twarzy stanowi poważne wyzwanie dla demokracji. Pozwala automatycznie scrapować z przestrzeni publicznej dane na temat zachowań, zwyczajów i społecznych powiązań jednostki. Ułatwia wyłapywanie oraz prześladowanie politycznych oponentów, demonstrantów, przedstawicieli dyskryminowanych mniejszości czy aktywistów. Nietrudno sobie wyobrazić nadużycia tej technologii chociażby w Polsce. Już teraz Clearview AI jest realnym zagrożeniem dla osób walczących na amerykańskich ulicach przeciwko systemowemu rasizmowi, a wraz z zaostrzeniem kryzysu gospodarczego w Stanach zarówno niepokoje społeczne, jak i agresja państwowego aparatu przemocy mogą rosnąć.

Screen New Deal

Clearview AI to także nauczka na przyszłość, skrajny przykład wykorzystania danych internautów niezgodnie z ich przeznaczeniem – symptom problemu, który od lat stanowi bolączkę „społeczeństw nadzorowanych” (dragnet societies), a zarazem motor napędowy kapitalizmu inwigilacyjnego. W tym kontekście jeszcze bardziej niepokojące wydają się pomysły natychmiastowej digitalizacji wszystkich sfer życia, z opieką zdrowotną i edukacją na czele – podejście określone przez Naomi Klein jako „Screen New Deal” (w opozycji do propagowanego przez nią ekologicznego „Green New Dealu”). Najbardziej zagorzałym orędownikiem tego rozwiązania jest Eric Schmidt, były prezes Google i zarazem były członek zarządu Apple, który posiada udziały w licznych firmach technologicznych, a jednocześnie zasiada w komitecie doradczym amerykańskiego Departamentu Obrony.

Klein zwraca uwagę, że projekty prezentowane dziś jako jedynie słuszna reakcja na pandemię były częścią agendy Schmidta jeszcze przed pojawieniem się koronawirusa. Już wtedy miliarder forsował szeroko zakrojone partnerstwo publiczno-prywatne, rozwijanie teleedukacji i telemedycyny i związany z tym transfer pieniędzy z budżetu państwa do Doliny Krzemowej. Poprzednio jego propozycje były motywowane amerykańsko-chińskim wyścigiem cyfrowych zbrojeń. Argumentował, że rozwój sztucznej inteligencji zależy bezpośrednio od dostępu do danych obywateli, o co znacznie łatwiej w etatystycznych Chinach z ich dystopijnym systemem „zaufania społecznego”.

Pandemia wzmocniła pozycję negocjacyjną Schmidta, a pierwszym zdobytym przez niego przyczółkiem jest Nowy Jork. Gubernator Andrew Cuomo zapowiedział szeroko zakrojoną współpracę ze Schmidtem i Gatesem, przedstawiając ich jako wizjonerów, którzy poprowadzą miasto ku zaawansowanej technologicznie, postpandemicznej przyszłości. Klein zwraca uwagę, że Alphabet usiłował zrealizować podobną wizję w Toronto, jednak projekt przekształcenia przestrzeni publicznej w sprywatyzowane smart city nie powiódł się m.in. z powodu licznych problemów z ochroną prywatności oraz wątpliwych korzyści dla miasta i jego mieszkańców.

Być może Nowy Jork będzie kolejnym nieudanym eksperymentem sektora Big Tech (a przy okazji workiem bez dna dla publicznych pieniędzy). Możliwe jednak, że Schmidt wyciągnął wnioski z kanadyjskiej porażki i – zapewne już długo po pandemii – powstanie bezkontaktowa, aseptyczna, w pełni nadzorowana i zautomatyzowana przestrzeń do życia jako wzór dla kolejnych miast, a zarazem ogromny generator danych dla algorytmów sztucznej inteligencji. 

Zamiast wielkich biznesowych wizji potrzebujemy teraz pragmatycznej, obywatelskiej czujności, plasującej się gdzieś pomiędzy technoentuzjazmem a technofobią. Musimy także myśleć o ochronie danych, określanych często mianem „nowej ropy naftowej”.

Przyklepywanie tak szeroko zakrojonej, długoterminowej wizji pod presją kryzysu epidemicznego wydaje się co najmniej pochopne (oczywiście z perspektywy mieszkańców, bo z pewnością nie z biznesowego punktu widzenia Schmidta). Bardziej na miejscu wydawałby się przeciwstawny sposób myślenia. W Polsce nie grożą nam na razie smart cities, na pewno jednak będą pojawiać się dylematy związane z przyspieszoną digitalizacją kolejnych sfer życia. Zamiast wielkich biznesowych wizji potrzebujemy teraz pragmatycznej, obywatelskiej czujności, plasującej się gdzieś pomiędzy technoentuzjazmem a technofobią. Musimy także myśleć o ochronie danych, określanych często mianem „nowej ropy naftowej”. Kryzysowa mieszanka strachu z presją czasu sprzyja przesuwaniu granic, także tych, które były dotąd przezornie strzeżone. Mam tu na myśli np. dostęp do danych na temat zdrowia obywateli, które są łakomym kąskiem dla wielu firm technologicznych, także tych największych jak Apple, Google i Amazon.

Nadzoru jest w naszym życiu za dużo, a nie za mało. Za duża jest także asymetria informacyjna między obywatelami a ośrodkami władzy, między konsumentami a korporacjami. Może łatwiej byłoby już zjechać po tej równi pochyłej, „przecież i tak wszyscy mają nasze dane”. Jednak to zasadnicza różnica, jakie dane są w posiadaniu tej czy innej władzy; czy to dane lokalizacyjne, behawioralne czy biometryczne; czy to odciski palców, czy identyfikacja rysów twarzy. Każdy typ danych pozwala na inny zakres kontroli. 

Na szczęście rośnie świadomość problemu ochrony danych. Lepiej właśnie mówić szerzej o „ochronie”, a nie „prywatności” danych, bo problem nie jest jednostkowy, ale społeczny. Wymaga publicznej dyskusji, obywatelskiego oporu i zabezpieczeń prawnych, krytycznego zaangażowania mediów i organizacji pozarządowych. Najgorsze, co moglibyśmy zrobić, to przyjąć technologiczny determinizm, uznać, że jesteśmy jedynie widzami w teatrze wielkich, cudzych interesów i na nic nie mamy wpływu.

Doktorant humanistyki cyfrowej w Polskiej Akademii Nauk i Polsko-Japońskiej Akademii Technik Komputerowych, kulturoznawca, absolwent Międzywydziałowych Indywidualnych Studiów Humanistycznych UW. W przeszłości pracował w branży mediowej. Publikował m. in. w „Widoku”, „Kulturze Popularnej”, „Gazecie Wyborczej”, „Filmwebie”, „Kulturze Liberalnej” i „Dwutygodniku”. Naukowo zajmuje się mediami społecznościowymi, nowymi technologiami i kulturą popularną.

zobacz także

zobacz playlisty