Sztuczna inteligencja zmienia ludzkie twarze. To niesamowite i przerażające

Sztuczna inteligencja zmienia ludzkie twarze. To niesamowite i przerażające

Sztuczna inteligencja DALL-E może tworzyć wariacje na temat wyglądu prawdziwej osoby.
Sztuczna inteligencja DALL-E może tworzyć wariacje na temat wyglądu prawdziwej osoby.
Źródło zdjęć: © Pexels
Marcin Watemborski
22.09.2022 14:50, aktualizacja: 23.09.2022 12:55

Na pewno słyszeliście o algorytmie sztucznej inteligencji DALL-E. Ta nazwa często się przewija w mediach branżowych. Tym razem jednak nie będziemy mówili o generowaniu obrazków z tekstu, a nowych obrazów na podstawie innych. Krótko mówiąc – sztuczna inteligencja wie, jak wyglądamy i jak zachowują się nasze twarze. To rodzi wiele pytań.

Technologia deep fake, gdzie twarze były celowo podmieniane po to, by stworzyć nieprawdziwe treści, miała jasny cel. Według eksperta z firmy Google Roberta Sochy, większość deep fake’ów dotyczy pornografii i podmieniania twarzy, by oczernić czyjś wizerunek, chociaż wcale nie lepiej jest z polityką – wypowiedzi wielu wpływowych osób bywały fałszowane.

Jednak nie o tym będzie mowa, a o sztucznej inteligencji, a konkretnie o generatywnych sieciach neuronowych (GAN), które tym razem nie biorą pod uwagę tekstu, a obrazy i na ich podstawie generują wariacje, tzn. różne wersje. Wstęp, którzy przeczytaliście powyżej, ma na celu oddzielenie grubą kreską technologii deep fake od GAN, choć te pierwsze mogą być wytworem tej drugiej, lecz nie muszą – do tego służą inne programy.

Dalsza część artykułu pod materiałem wideo

O ile w przeszłości pisaliśmy o GAN w kontekście artystycznych portretów (DALL-E 2) czy przepięknych krajobrazów (Stable Diffusion), to zawsze mieliśmy na myśli przetwarzanie słowa pisanego na obraz. Tym razem algorytm DALL-E firmy OpenAI poszedł w innym kierunku, który jest jednak przerażający, ponieważ zbliża nas znacznie do tego, co jeszcze kilkanaście lat temu widzieliśmy jedynie w filmach science fiction. Chodzi o tworzenie obrazów na bazie innych obrazów.

OpenAI poinformowało, że wprowadziło znaczącą poprawę zabezpieczeń w kwestii generatywnych sieci neuronowych opartych na zdjęciach. Zgodnie z informacjami, ich program ma służyć dobru ludzkości, a nie tworzeniu problemów. Tak powstały specjalne filtry, które odrzucają treści seksualne, polityczne oraz przemocowe po to, by wygenerowane wariacje obrazów z prawdziwymi osobami nie godziły w dobro ich wizerunków.

Świetnym przykładem wykorzystania GAN do czynienia dobra i pomocy ludziom są chirurdzy plastyczni, którzy używają algorytmu DALL-E z wgranym zdjęciem pacjenta do tego, by stworzyć wizualizację efektów zabiegu. Innym dobrym zjawiskiem jest użycie algorytmu na potrzeby przemysłu filmowego, gdzie eksperci od efektów specjalnych mogą wykorzystać wygenerowane twarze zamiast zlecać powtórki nagrań – to oszczędność kosztów oraz czasu.

Możliwości algorytmu DALL-E wzbudzają wiele wątpliwości. Mimo tego, że producent zapewnia o zabezpieczeniach, wiele osób nie ufa tej technologii. Aby dać użytkownikom jeszcze większy komfort korzystania z tej generatywnej sieci neuronowej, OpenAI stworzyło specjalną klauzulę wykorzystania wizerunku, zgodnie z którą do bazy danych algorytmu mogą zostać wgrane jedynie zdjęcia tych osób, które wyraziły na to zgodę. Niestety nie wiadomo, w jaki sposób ma być to egzekwowane.

Marcin Watemborski, redaktor prowadzący Fotoblogii

Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (0)