Mężczyzna spędził tydzień w areszcie przez błąd AI. Funkcjonariusze zawierzyli systemowi

Rzecz się działa, a jakże, w USA, a konkretniej w Atlancie (Georgia). Randal Quran Reid został zatrzymany w listopadzie 2022 r., po czym zabrano go do aresztu. Niewinny człowiek spędził tydzień w odosobnieniu przez błąd systemu za zbrodnię, której nie popełnił. Teraz idzie do sądu nie jako oskarżony, ale oskarżający.

System rozpoznawania twarzy może poważnie zawieść.
System rozpoznawania twarzy może poważnie zawieść.
Źródło zdjęć: © Pexels
Marcin Watemborski

W niektórych stanach USA na potęgę są wykorzystywane systemu rozpoznawania twarzy. Sztuczna inteligencja ma za zadanie rozpoznawać wizerunek osób podejrzanych o popełnienie przestępstwa i w ten sposób ułatwiać pracę policji. Problem w tym, że funkcjonariusze zbyt ślepo ufają technologii, o czym przekonał się Randal Quran Reid.

Mężczyzna został aresztowany w korku samochodowym w Atlancie (Georgia, USA). Policjanci zatrzymali Reida z powodu rzekomego popełnienia podwójnej kradzieży. Przestępstwo polegało na zakupie luksusowych dóbr na kwotę 13 tys. dolarów w sklepach Chanel i Louis Vuitton skradzioną kartą. Jeden ze sklepów znajdował się w Nowym Orleanie, a drugi w Baton Rouge – oba w stanie Luizjana. I tu pojawia się nieścisłość – mężczyzna nigdy nie był w tym stanie.

Dalsza część artykułu pod materiałem wideo

Reid spędził tydzień w więzieniu, co odcisnęło na nim pewne piętno. Mężczyzna postanowił, że nie puści tego płazem i postanowił złożyć pozew sądowy w sądzie federalnym w Atlancie przeciwko szeryfowi Josephowi Lopinto oraz detektywowi Andrew Bartholomewowi. W dokumencie przeczytamy, że Reid ma za złe funkcjonariuszom ślepe zawierzenie omylnemu systemowi, zatrzymanie oraz spędzenie tygodnia w areszcie.

To nie jest pierwsza taka sytuacja. W USA takie przypadki czasem się zdarzają. W zeszłym miesiącu pisaliśmy o przypadku kobiety z Detroit, która będąc w zaawansowanej ciąży, z powodu błędu systemu rozpoznawania twarzy spędziła na stresujące komisariacie 11 godzin. Kobieta nie popełniła żadnej zbrodni. Zawiodła technologia.

Problemy z systemami rozpoznawania twarzy zdarzają się coraz częściej, co pokazuje, że ludzi zbyt ślepo ufają sztucznej inteligencji. Właśnie z tego powodu kilka stanów i wiele miast w USA już teraz zakazało używania wspomnianej technologii na użytek policyjny. To narzędzie powinno być jedynie poszlaką, którą funkcjonariusze powinni sprawdzić, a nie brać za pewnik.

Marcin Watemborski, redaktor prowadzący Fotoblogii

Wybrane dla Ciebie
Komentarze (1)