Newsy |

IBM ogłosiło, że nie będzie dłużej rozwijać technologii rozpoznawania twarzy09.06.2020

źródło: unsplash.com

Amerykański gigant informatyczny jasno zaznaczył swoje stanowisko wobec bezprawnego obserwowania obywateli.

Kamery śledzące każdy ruch człowieka na ulicy od początku wzbudzały wiele kontrowersji. Jeszcze rok temu brytyjska policja na podstawie danych uzyskanych z systemu rozpoznawania twarzy zatrzymywała osoby kompletnie niewinne, lub takie, które swoje sprawy z wymiarem sprawiedliwości miały dawno uregulowane. W związku z tym David Davis, członek brytyjskiego parlamentu, jednogłośnie uznał wtedy, że wykonywana bez zgody analiza wieku, płci czy nawet nastroju jest poważnym zagrożeniem dla demokracji. Do zaprzestania używania narzędzi do rozpoznawania twarzy nawoływały także władze Kalifornii, ale już np. w Niemczech czy Francji w ostatnich miesiącach głośno mówi się o wprowadzaniu automatycznych systemów kontrolujących tożsamość, umieszczonych na lotniskach czy dworcach kolejowych.

Na temat technologii rozpoznawania twarzy wypowiadają się nie tylko władze państw, stanów czy miast, ale również duże firmy. Swoje stanowisko w tej sprawie wyjawił właśnie IBM, jedno z najstarszych i najpotężniejszych przedsiębiorstw informatycznych na świecie. Oficjalny list w tej sprawie opublikował wczoraj Arvind Krishna, dyrektor generalny firmy. W jego opinii system kamer identyfikujących tożsamość człowieka narusza swobody obywatelskie.

– IBM stanowczo sprzeciwia się i nie akceptuje wykorzystywania rozpoznawania twarzy. Dotyczy to także technologii rozwijanej przez inne firmy, która jest narzędziem masowej inwigilacji, profilowania rasowego, naruszania podstawowych praw i wolności człowieka – napisał Krishna.

Choć z pozoru ocena algorytmu może wydawać się obiektywna to najczęściej bywa stronnicza i mało wyważona. Potwierdziło to już wiele badań. W grudniu zeszłego roku amerykańska agencja rządowa National Institute of Standards and Technology opublikowała specjalny raport w tej sprawie. Wynika z niego, że niektóre grupy algorytm potrafi przyporządkować lepiej, a inne gorzej. Zazwyczaj dobrze sobie radzi z białymi mężczyznami w średnim wieku, ale Azjaci oraz Afroamerykanie byli już identyfikowani niewłaściwie. Zdarzało się to średnio sto razy częściej.

tagi

000 Reakcji
/ @papaya.rocks

zobacz także

zobacz playlisty