Algorytm powiększa zdjęcia, a niektórzy twierdzą, że jest… rasistowski!
Jeśli śledzicie na bieżąco nowinki technologiczne w dziedzinie obrazowania, mogliście spotkać się z kuriozalną sytuacją. Przez to, że algorytm nie rozpoznaje osób o różnych kolorach skóry, pojawiły się głosy o rasizmie maszyny.
22.06.2020 | aktual.: 26.07.2022 14:51
Zalogowani mogą więcej
Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika
Zacznijmy jednak od początku. Temat dotyczy algorytmu Face Depixelizer, opartego na sztucznej inteligencji i algorytmie maszynowego uczenia StyleGAN. Jego głównym zadaniem jest stworzenie dobrej jakości portretu na bazie zlepku pikseli. Na podstawie tysięcy zdjęć, program wie, jak powinna wyglądać twarz i jak interpretować obraz. Za powstanie algorytmu odpowiada rosyjski programista Denis Malimonow.
Technika, którą reprezentuje Face Depixelizer nazywa się "upscaling" i zasadniczo polega na zwiększeniu rozdzielczości zdjęcia przez jego analizę i interpretację algorytmu. Taka sama technologia została wykorzystana przykładowo podczas powiększania filmu z przyjazdu pociągu na stację Le Ciotat braci Lumiere.
Jak widzicie na powyższym przykładzie, Face Depixelizer działa całkiem nieźle – przynajmniej na pierwszy rzut oka. Internauci nie odpuściliby szansy na to, by sprawdzić czy faktycznie program jest tak doskonały i świetnie wytrenowany, czym chwalą się programiści. Oczywiście postanowili to sprawdzić.
Na pierwszy ogień poszła mozaika z 8-bitowej gry Wolfenstein, przedstawiająca głównego bohatera. Trzeba przyznać, że efekt jest ciekawy. Podobnie było z portretem z interfejsu gracza pierwszej wersji gry Doom, również 8-bitowej. Tutaj pojawiły się różne wersje, aczkolwiek dość "legitne". Mnie to kupiło.
Rasistowski algorytm?
Okazuje się, że algorytm wcale nie jest taki doskonały. W przypadku, gdy do programu zostały wgrane rozpikselowane twarze czarnoskórych osób, ten dorobił im rysy twarzy charakterystyczne dla osób z urodą kaukaską. W ten oto sposób możemy zobaczyć dość jasne zdjęcie Baracka Obamy z kompletnie nową twarzą.
W internecie pojawiły się już wcześniej głosy, że niektóre algorytmy mogą być ”rasistowskie”, bo nie biorą pod uwagę innych rysów twarzy, jak typowe dla osób z jasną karnacją, natomiast te z urodą mongoidalną lub w typie negroidalnym są pomijane. To kwestia obrazów, na bazie których zostały wytrenowane konkretne programy.
Inne przykłady ”rasizmu” programów komputerowych
Mój redakcyjny kolega Jakub Krawczyński pisał na łamach WP Tech o sprawie Microsoftu, który został oskarżony o rasistowski algorytm. Wtedy chodziło o agregator wiadomości MSN i niewłaściwie dopasowane zdjęcie do artykułu dotyczącego kwestii tolerancji rasowej i podejścia do tematu członkiń zespołu Little Mix. Zamiast Jade Thirwall na zdjęciu pojawiła się Leigh-Anne Pinnock. Dodam, że panie znacznie różnią się od siebie wyglądem ze względu na multikulturowe korzenie. Thirwall ma korzenie egipsko-jemeńskie, a Pinnock jamajsko-barbadyjskie. Oczywiście panie nie zostawiły tego bez odezwu, robiąc niemałą awanturę na Instagramie.
Jak się okazuje, to nie jedyny przykład, w którym algorytmy są oskarżane o rasizm. Już w marcu 2018 roku Forbes pisał o seksizmie i rasizmie sztucznej inteligencji, dotykając tematu badań Massachusetts Institute of Technology, a 3 lata wcześniej Newsweek wspominał o algorytmie Google, który pomylił… czarnoskórą parę z gorylami! Dzisiaj by to absolutnie nie przeszło. W artykule Cyfrowej RP przeczytamy natomiast o systemach sztucznej inteligencji, które analizują CV lub przydzielają zasiłki, traktując gorzej przy tym niektóre mniejszości.
Co ciekawe, jak donosi portal Nauka w Polsce, ludzie ufają sztucznej inteligencji bezgranicznie i uważają ją za nieomylną. Udowodnił to profesor Klichowski z Uniwersytetu Adama Mickiewicza. Stworzył on robota o imieniu FI, który zachowywał się irracjonalnie. Jego zadaniem było udawanie inteligentnego, co zostało zignorowane przez 85 proc. badanych i uznało zachowanie maszyny za punkt odniesienia do własnego. Eksperyment dotyczył wskazania 6 terrorystów w mediach społecznościowych na bazie podejrzanych zachowań. FI wskazywał zachowania przeciętny, które zmyliły prawdziwych ludzi.
To, czy faktycznie można traktować algorytmy jako rasistowskie zostawiam specjalistom od etyki. Być może ich twórcy były uprzedzeni, a może to kwestia niedoskonałości technologii. To tylko gdybania, ale nie powinny one zasłaniać nam tego, co jest naprawdę ważne – rozwoju sztucznej inteligencji, która coraz lepiej weryfikuje tożsamość ludzi, ba nawet generuje sztuczne wizerunki, które w połączeniu z zaawansowanymi chat botami mogą z powodzeniem udawać prawdziwe osoby – przykładowo jako trolle w mediach społecznościowych.