AI Google'a tłumaczy język migowy przez śledzenie ruchów dłoni 20.08.2019
Nowy wynalazek powstał w laboratorium Google'a w wyniku badań nad sztuczną inteligencją. Tłumaczy on wykonywane podczas migania ruchy rąk na tekst w czasie rzeczywistym, wykorzystując m.in uczenie maszynowe, analizując ogromne zbiory danych, a także samoczynnie podejmując działania.
Aby system mógł rozpoczać funkcjonowanie, konieczne było wgranie tzw. danych treningowych. W tym przypadku inżynierowie Google'a ręcznie dodali ponad trzydzieści tysięcy obrazów rąk w różnych pozycjach uchwyconych pod różnym kątem, a także w zmiennym oświetleniu. Na tej podstawie system wygenerował mapy dłoni z dokładnie rozrysowanymi zgięciami palców. Ta wiedza w połączeniu z kamerą smartfona, która działa w czasie rzeczywistym, wystarczy algorytmowi do tłumaczenia języka migowego.
– Czytanie ruchów dłoni w czasie rzeczywistym przez cyfrowy obraz jest sporym wyzwaniem dla algorytmu. Ręce, które znajdują się w ruchu, często nachodzą na siebie czy zakrywają się, co zmniejsza kontrast postrzegany przez sztuczną inteligencję – tłumaczą inżynierowie Googla, Valentin Bazarevsky i Fan Zhang, w poście na blogu, który opisuje działanie algorytmu.
Wyzwaniem dla systemu było także tempo i charakterystyczny dla każdego człowieka styl, w którym poruszają się ludzkie ręce. Czasem jest on szybki, a czasami powolny i niedbały. Każde delikatne odchylenie od ustalonego modelu jest trudne do dokładnego zinterpretowania ruchu w krótkim czasie. Nawet gdy algorytm używa wielu kamer albo modeli, które pozwalają mu uzyskać głębszy obraz (depth-sensing rig), interpretacja gestów wciąż jest sporym zadaniem.
Aby zagwarantować szybkość reakcji sztucznej inteligencji, naukowcy postanowili okroić liczbę danych, które będą jej potrzebne. Zamiast śledzenia dokładnych pozycji rąk i ich rozmiarów, inżynierowie skupili się na kształcie samej dłoni, który można skrótowo opisać jako prostokąt. Kiedy algorytm go rozpozna, będzie potrafił wyodrębnić także położenie palców i osobno analizować ich ruchy.
Algorytm analizuje aż 21 współrzędnych, które określają pozycję i odległość od początku palców aż po ich opuszki. Kiedy system wyłapie konkretne ułożenie rąk i palców, porównuje je ze znanymi sobie gestami (np. znany gest „Victorii”, gdzie palec wskazujący i środkowy układają się w literę „V”). Algorytm został zaprojektowany przez inżynierów Google'a, jednak korzysta z osiagnięć większego systemu uczenia maszynowego – MediaPipe. Google udostępnia go za darmo z nadzieją na pogłębienie i rozwinięcie jego zastosowania.
Można pobrać go TU.
zobacz także
- „Teoria wielkiego podrywu” doceniona podczas rozdania Nagród Nobla w dziedzinie fizyki
Newsy
„Teoria wielkiego podrywu” doceniona podczas rozdania Nagród Nobla w dziedzinie fizyki
- Przezroczyste drewno. Rewolucyjny wynalazek inżynierów z University of Maryland
Newsy
Przezroczyste drewno. Rewolucyjny wynalazek inżynierów z University of Maryland
- Ai-Da, humanoidalny robot-artysta otworzył swoją pierwszą wystawę
Newsy
Ai-Da, humanoidalny robot-artysta otworzył swoją pierwszą wystawę
- Rembrandt w szesnastu milionach megapikseli. Zobacz „Straż nocną" w najwyższej jakości
Newsy
Rembrandt w szesnastu milionach megapikseli. Zobacz „Straż nocną" w najwyższej jakości
zobacz playlisty
-
Walker Dialogues and Film Retrospectives: The First Thirty Years
12
Walker Dialogues and Film Retrospectives: The First Thirty Years
-
Nagrody Specjalne PYD 2020
02
Nagrody Specjalne PYD 2020
-
Seria archiwalnych koncertów Metalliki
07
Seria archiwalnych koncertów Metalliki
-
Andriej Tarkowski
02
Andriej Tarkowski