Pokaż mi swoje zdjęcie, a powiem ci, jak się czujesz. Czy rozpoznawanie emocji przez AI może być niebezpieczne?06.04.2021
Projekt „Emojify”, którego pomysłodawcami są naukowcy z Uniwersytetu w Cambridge, zwraca uwagę na zawodność i stronniczość algorytmów opartych na działaniu sztucznej inteligencji.
Wykorzystywanie AI do identyfikacji ludzi niesie za sobą wiele korzyści, ale nie jest też pozbawione kontrowersji. Na jego negatywne aspekty zwrócono choćby uwagę w dokumencie Zakodowane uprzedzenie Shalini Kantayya, który był przedpremierowo prezentowany na ubiegłorocznym, wirtualnym American Film Festival. Reżyserka wsparta przez liczne grono ekspertów i aktywistów wykazała, że sztuczna inteligencja rzadziej rozpoznaje osoby o innym kolorze skóry niż biały. Tak rozumiana zawodność i stronniczość algorytmów niesie za sobą szereg niebezpiecznych konsekwencji. Nie chodzi tu wyłącznie o nieodblokowanie prywatnego telefonu za pomocą twarzy, ale też niesłuszne oskarżenia o popełnienie przestępstwa albo wykluczenie z procesów rekrutacyjnych.
Informatycy i naukowcy intensywnie pracują też nad tym, żeby AI była w stanie poprawnie rozpoznać emocje człowieka. Nietrudno wskazać potencjalne korzyści tego rozwiązania – aplikacje służące do streamingu muzyki mogłyby dostosowywać playlisty do nastroju, a wirtualni psychologowie radzić z większą skutecznością. Naukowcy z Leverhulme Centre for the Future of Intelligence działającego przy Uniwersytecie w Cambridge chcieli pochylić się nad tym narzędziem i przybliżyć internautom jego mechanizmy.
– Chcemy otworzyć dyskusję dotyczącą tego systemu, poruszając temat nauki stojącej za tą technologią, ale i jej wpływu na społeczeństwo. Nasza inicjatywa to ćwiczenie z zakresu wspólnego zdobywania wiedzy – chcemy usłyszeć rożne refleksje, doświadczenia i obawy – podkreślają pomysłodawcy Emojify.
Na oficjalnej witrynie przedsięwzięcia zostały udostępnione dwie minigry. W pierwszej z nich użytkownik musi rozpoznać, czy osoba na zdjęciu mruga, czy też po prostu puszcza oczko do kamery. Eksperci przypominają w niej, że sztuczna inteligencja miała problemy z rozwiązaniem zadania – dostrzegała charakterystyczny ruch na twarzy, jednak nie potrafiła zrozumieć jego kontekstu. Druga aplikacja wymaga dostępu do kamerki internetowej. Gracz może przetestować AI, udając jedną z sześciu sugerowanych emocji: szczęście, smutek, strach, zaskoczenie, zdegustowanie i złość. Choć w niektórych przypadkach algorytm był bezbłędny, zdarzało mu się źle interpretować zachowania.
– Istnieje wiele solidnych dowodów poświadczających, że to nie tak proste – mówi w rozmowie z „The Guardian” dr Alexa Hagerty. Badaczka podkreśla, że człowiek może z powodzeniem tłumić swoje emocje lub – na przykład w przypadku zespołu Tourette'a – mieć nadmiernie ekpresywną mimikę.
zobacz także
- Połączenie mózgu ze sztuczną inteligencją coraz bardziej realne? Z pomocą może przyjść przełomowy polimer
Newsy
Połączenie mózgu ze sztuczną inteligencją coraz bardziej realne? Z pomocą może przyjść przełomowy polimer
- „Wyglądasz jak zabójca skradający się zza chmur.” Jak generator tekstów GPT-3 radzi sobie z flirtowaniem?
Newsy
„Wyglądasz jak zabójca skradający się zza chmur.” Jak generator tekstów GPT-3 radzi sobie z flirtowaniem?
- Królowa Elżbieta jako deepfake. Bożonarodzeniowe orędzie Channel 4 zwróci uwagę na ważny problem
Newsy
Królowa Elżbieta jako deepfake. Bożonarodzeniowe orędzie Channel 4 zwróci uwagę na ważny problem
- Czy roboty mogą być empatyczne? Amerykańscy naukowcy przeprowadzili udany eksperyment
Newsy
Czy roboty mogą być empatyczne? Amerykańscy naukowcy przeprowadzili udany eksperyment
zobacz playlisty
-
Paul Thomas Anderson
02
Paul Thomas Anderson
-
03
-
Music Stories PYD 2020
02
Music Stories PYD 2020
-
Domowe koncerty Global Citizen One World: Together at Home
13
Domowe koncerty Global Citizen One World: Together at Home