Doroczny konkurs jedzenia cementu. SI pokazała celebrytów w dziwnym świetle

Na międzynarodowym forum Reddit wiralowo rozszedł się zbiór obrazów pokazujących tak znanych ludzi, jak Elon Musk, Dwayne Johnson, Will Smith i inni, którzy są cali brudni. Gwiazdy z pierwszych stron gazet mają twarzy i ręce całe w… cemencie! Tak, dobrze przeczytaliście. Ktoś stworzył za pośrednictwem sztucznej inteligencji zbiór fotorealistycznych grafik pokazujących znane osobistości jedzące cement.

"Donald Trump jedzący cement". Oczywiście grafika jest fałszywa. To NIE jest zdjęcie.
"Donald Trump jedzący cement". Oczywiście grafika jest fałszywa. To NIE jest zdjęcie.
Źródło zdjęć: © Licencjodawca
Marcin Watemborski

25.04.2023 12:47

Papież Franciszek, Elon Musk, Margot Robbie, Will Smith, John Cena, Dwayne Johnson, Ariana Grande i wielu innych zostało bohaterami "Dorocznego konkursu jedzenia cementu". Wszystko to stało się możliwe dzięki wykorzystaniu sztucznej inteligencji, a właściwie generatywnej sieci neuronowej (GAN) Midjourney.

Fałszywy papież Franciszek.
Fałszywy papież Franciszek.© Licencjodawca

Piąta wersja Midjourney słynie z tego, że jest w stanie wyprodukować fotorealistyczne grafiki po wpisaniu odpowiedniego "promptu", czyli opisu przeważnie zawierającego różne parametry. Na jego podstawie można stworzyć obrazy, które do złudzenia przypominają rzeczywistość. Wystarczy rzucić okiem na fałszywe "aresztowanie Donalda Trumpa" lub miliarderów na tle slumsów.

Dalsza część artykułu pod materiałem wideo

Tym razem jeden z członków międzynarodowego forum Reddit wykazał się dziwnym poczuciem humoru. Seria fotorealistycznych, aczkolwiek fałszywych, grafik jest odpowiedzią na trend w grupie twórców wirtualnych o nazwie "Weird DALL-E". Na różnych mniejszych forach i w podgrupach popularne jest tworzenie dziwnych "promptów" i bywa tak, że przestrzeń zalewa fala postów na dany temat, np. mistrzostwa w jedzeniu spaghetti czy stroje superbohaterów zrobione na szydełku.

Fałszywy Dwayne Johnson.
Fałszywy Dwayne Johnson.© Licencjodawca

Gdyby ktoś miał wątpliwości, wszystkie te obrazy są fałszywe i żaden z nich nie jest zdjęciem. To wszystko grafiki wygenerowane przez Midjourney. Ich realizm sprawia jednak, że osoby, które nie znają technologii generatywnych sieci neuronowych, mogą się nabrać tak, jak nabrali się użytkownicy Facebooka chcący kupić nieistniejący latający samochód.

Fałszywa Ariana Grande.
Fałszywa Ariana Grande.© Licencjodawca

Uważajcie, w co wierzycie. Sieć jest teraz pełna fake newsów i oszukanych zdjęć. Niektórzy posuwają się tak daleko, że nakazują GAN tworzenie obrazów pokazujących wydarzenia, które nigdy się nie wydarzyło, jak trzęsienie ziemi w Oregonie (USA) sprzed 20 lat.

Fałszywa Margot Robbie.
Fałszywa Margot Robbie.© Licencjodawca
Fałszywy John Cena.
Fałszywy John Cena.© Licencjodawca
Fałszywy Joe Biden.
Fałszywy Joe Biden.© Licencjodawca
Fałszywy Danny DeVito.
Fałszywy Danny DeVito.© Licencjodawca
Fałszywy Will Smith.
Fałszywy Will Smith.© Licencjodawca
Fałszywy Jack Black.
Fałszywy Jack Black.© Licencjodawca
Fałszywy Keanu Reeves.
Fałszywy Keanu Reeves.© Licencjodawca
Fałszywy Elon Musk.
Fałszywy Elon Musk.© Licencjodawca
Fałszywy Kanye West.
Fałszywy Kanye West.© Licencjodawca

Marcin Watemborski, redaktor prowadzący Fotoblogii

Wybrane dla Ciebie
Komentarze (2)