Newsy |

Czy roboty mogą być empatyczne? Amerykańscy naukowcy przeprowadzili udany eksperyment 12.01.2021

kadr z filmu Wall-E

Okazało się, że odpowiednio zaprogramowana maszyna nauczyła się przewidywać kolejne ruchy swojego partnera.

Kiedy przebywamy nieustannie z jedną osobą, szybko uczymy się jej nawyków i zachowań, a po jakimś czasie zaczynamy trafnie przewidywać, jakie będą jej dalsze reakcje. To pozornie prosta umiejętność, której mimo wielu starań nie przyswoiły jednak nawet najbardziej zaawansowane roboty. Maszyny nadal przejawiają braki w elementarnej komunikacji społecznej, nie rozpoznając dostatecznie stanów emocjonalnych człowieka na podstawie mimiki, tonu głosu albo mowy ciała. Uzyskanie tak rozumianej świadomości sztucznej inteligencji to duże wyzwanie, przed którym stoją współcześni konstruktorzy, kognitywiści i programiści. 

Małym krokiem w osiągnięciu pożądanego celu zdają się rezultaty badań przeprowadzonych w laboratorium Creative Machines przynależącym do prywatnego Uniwersytetu Columbia. Zespół kierowany przez Hoda Lipsona, tamtejszego profesora inżynierii mechanicznej, pracuje nad tym, żeby roboty mogły zrozumieć inne maszyny – nie tylko na podstawie komunikatów bezpośrednio do nich kierowanych, ale i z pomocą własnej percepcji wzrokowej. 

Pierwsza faza eksperymentu zakładała zbudowanie jednego robota, który został umieszczony na niewielkim podwyższeniu. Został on zaprogramowany w taki sposób, żeby szukał zielonych okręgów, a następnie kierował się w ich stronę. Choć zadanie zdaje się dość proste, naukowcy szybko podwyższyli poprzeczkę – cele maszyny były zasłonięte przez wysokie czerwone pudełko. 

Poczynania swojego kolegi przez dwie godziny obserwował drugi robot. Okazało się, że był on w stanie niemal bezbłędnie przewidzieć, jaką ścieżkę wybierze jego partner. Co ważne, nie otrzymał od badaczy żadnych dodatkowych informacji dotyczących tego, że maszyna nie widzi pudełka. – Nasze wstępne wyniki są bardzo obiecujące – mówi w rozmowie z portalem „ScienceDaily” jeden z pomysłodawców projektu, Boyuan Chen. – Jesteśmy dzięki nim w stanie wykazać, jak roboty mogą patrzeć na świat z perspektywy innego robota. Zdolność postronnego podmiotu do postawienia się w sytuacji kolegi i wykazania, czy widzi zielony okrąg ze swojego punktu obserwacyjnego, można prawdopodobnie określić prymitywną formą empatii – dodaje. 

Choć naukowcy zdają sobie sprawę z tego, że zachowania obu robotów w ich badaniu nie były dostatecznie rozwinięte, wierzą jednocześnie, że zgromadzone przez nich wyniki mogą posłużyć za fundament wprowadzania teorii umysłu u maszyn. Zakłada ona  rozumienie innych istot poprzez przyjęcie ich perspektywy oraz zrozumienie towarzyszących im intencji. Dzięki takiej właściwości ludziom udaje się rywalizować, współczuć i współpracować. 

Ze szczegółami eksperymentu można zapoznać się na łamach specjalistycznego periodyku Nature Scientific Reports.

Visual Behavior Modeling for Robotic Theory of Mind / autor: Columbia Engineering
000 Reakcji
/ @papaya.rocks

zobacz także

zobacz playlisty