Lensa AI pod ostrzałem. Użytkowniczki mówią o rasizmie i seksizmie
Lensa AI to aplikacja na smartfony, która stała się ostatnio bardzo popularna. Bazuje ona na algorytmie sztucznej inteligencji, tworzącym na podstawie wgranych zdjęć zupełnie nowe obrazy. Problem polega na tym, że według wielu użytkowników, ich podobizny są dalekie od prawdziwego wyglądu, a na dodatek zostały uprzedmiotowione i nadano im bardzo seksualny wyraz.
09.12.2022 13:00
Pewnie zauważyliście wśród swoich znajomych w mediach społecznościowych, że wielu z nich zaczęło dodawać zdjęcia profilowe będące wytworem sztucznej inteligencji, a konkretnie Lensa AI. Ta aplikacja ostatnio zdobyła niesamowitą popularność, lecz nie wszystkim podobają się efekty.
Wiele kobiet zwróciło uwagę na to, że ich podobizny nabrały kompletnie innego charakteru. Wgrane do programu niewinne selfie zmieniły się w kompletnie inne obrazy. W zależności od stylu i wariacji obrazu pojawiły się ich wersje wizualnie przypominające postaci z mang czy gier wideo, co według niektórych jest rasistowskie.
Dalsza część artykułu pod materiałem wideo
Pojawiły się też sytuacje kompletnie odwrotne. Kobiety o azjatyckich rysach twarzy zwróciły uwagę na to, że grafiki, które otrzymały od aplikacji, zmieniły ich wygląd na bardziej zachodni. Dotyczy to w szczególności oczu oraz koloru skóry, który stał się znacznie bardziej różowy, niż powinien. Użytkowniczki nie były z tego zadowolone. Z drugiej strony wskazuje to na mało zróżnicowaną bazę danych Lensa AI, z którego w większości widocznie korzystają panie o urodzie europejskiej.
Na tym nie koniec – chodzi głównie o wyeksponowane biusty, powiększone usta i oczy oraz uwodzicielskie spojrzenia z mocnym makijażem. Zdarzały się sytuacje, że Lensa AI stworzyła obrazy kompletnie nagich kobiet na podstawie całkowicie ubranych zdjęć. To wzmogło dyskusje na temat interpretacji kobiet przez sztuczną inteligencję. W końcu ktoś musiał nauczyć program takiego postrzegania żeńskiego ciała.
Nie chodzi o odosobniony przypadek. Sytuacje wyprodukowania przez Lensa AI półnagich lub nagich obrazów w przypadku kobiet są bardzo częste. Najbardziej zastanawiające jest to, że takie grafiki powstają po wgraniu zdjęć w pełnym stroju. Skąd się to wzięło? Odpowiedź jest bardzo prosta.
Nie jest to zagranie celowe, a kwestia wytrenowania algorytmu maszynowego uczenia. Na podstawie zbioru danych, który został już wgrany, podawane są wyniki. Krótko mówiąc – użytkownicy dostają to, co jest popularne. Widocznie w bazie musiało się znaleźć mnóstwo zdjęć nagich lub półnagich kobiet – mogły być to nawet antyczne rzeźby lub obrazy, które często służą za podstawę dla trenowania algorytmów.
Po to, by takie obrazy się nie wyświetlały, baza danych musiałaby być bardzo dokładnie przejrzana i przefiltrowana. Być może nawet ręcznie, co przy ogromnej popularności aplikacji mogłoby być ekstremalnie czasochłonnym zadaniem. Z drugiej strony napisanie skryptu filtrującego do bazy danych na podstawie nowego zbioru mogłoby oszczędzić pracy.
Marcin Watemborski, redaktor prowadzący Fotoblogii