Mężczyzna spędził tydzień w areszcie przez błąd AI. Funkcjonariusze zawierzyli systemowi
Rzecz się działa, a jakże, w USA, a konkretniej w Atlancie (Georgia). Randal Quran Reid został zatrzymany w listopadzie 2022 r., po czym zabrano go do aresztu. Niewinny człowiek spędził tydzień w odosobnieniu przez błąd systemu za zbrodnię, której nie popełnił. Teraz idzie do sądu nie jako oskarżony, ale oskarżający.
26.09.2023 13:46
W niektórych stanach USA na potęgę są wykorzystywane systemu rozpoznawania twarzy. Sztuczna inteligencja ma za zadanie rozpoznawać wizerunek osób podejrzanych o popełnienie przestępstwa i w ten sposób ułatwiać pracę policji. Problem w tym, że funkcjonariusze zbyt ślepo ufają technologii, o czym przekonał się Randal Quran Reid.
Mężczyzna został aresztowany w korku samochodowym w Atlancie (Georgia, USA). Policjanci zatrzymali Reida z powodu rzekomego popełnienia podwójnej kradzieży. Przestępstwo polegało na zakupie luksusowych dóbr na kwotę 13 tys. dolarów w sklepach Chanel i Louis Vuitton skradzioną kartą. Jeden ze sklepów znajdował się w Nowym Orleanie, a drugi w Baton Rouge – oba w stanie Luizjana. I tu pojawia się nieścisłość – mężczyzna nigdy nie był w tym stanie.
Dalsza część artykułu pod materiałem wideo
Reid spędził tydzień w więzieniu, co odcisnęło na nim pewne piętno. Mężczyzna postanowił, że nie puści tego płazem i postanowił złożyć pozew sądowy w sądzie federalnym w Atlancie przeciwko szeryfowi Josephowi Lopinto oraz detektywowi Andrew Bartholomewowi. W dokumencie przeczytamy, że Reid ma za złe funkcjonariuszom ślepe zawierzenie omylnemu systemowi, zatrzymanie oraz spędzenie tygodnia w areszcie.
To nie jest pierwsza taka sytuacja. W USA takie przypadki czasem się zdarzają. W zeszłym miesiącu pisaliśmy o przypadku kobiety z Detroit, która będąc w zaawansowanej ciąży, z powodu błędu systemu rozpoznawania twarzy spędziła na stresujące komisariacie 11 godzin. Kobieta nie popełniła żadnej zbrodni. Zawiodła technologia.
Problemy z systemami rozpoznawania twarzy zdarzają się coraz częściej, co pokazuje, że ludzi zbyt ślepo ufają sztucznej inteligencji. Właśnie z tego powodu kilka stanów i wiele miast w USA już teraz zakazało używania wspomnianej technologii na użytek policyjny. To narzędzie powinno być jedynie poszlaką, którą funkcjonariusze powinni sprawdzić, a nie brać za pewnik.
Marcin Watemborski, redaktor prowadzący Fotoblogii