Nowa generacja fake newsów. Ci "ludzie" będą nas oszukiwać
Fake newsy i dezinformacja szerzą się jak nigdy wcześniej. Na portalach społecznościowych, a nawet w niektórych mediach pojawiają się nieprawdziwe informacje oraz sfałszowane nagrania. Część z nich jest pełna wizerunków "ludzi", który nigdy nie istnieli. Pojawiło się właśnie nowe narzędzie do generowania takich "osób".
14.03.2022 | aktual.: 26.07.2022 13:22
XXI wiek to czas fake newsów
Niedawno redaktor prowadzący portal dobreprogramy.pl Oskar Ziomek napisał artykuł dotyczący wygenerowanych przez program komputerowy "ludzi". Chodziło o Władimira Bondarenkę oraz Irynę Kerimową. Pod tymi nazwiskami funkcjonowały postaci, które szerzyły rosyjską propagandę, a na ich zdjęciach profilowych były postaci wygenerowane przez generatywną sieć neuronową GAN. Oboje mieli konta w mediach społecznościowych, które zostały usunięte z Twittera oraz Facebooka.
W przeszłości pokazywaliśmy wam, jak dobrze działają obecne sieci neuronowe i jak stworzone przez nie „osoby” doskonale wyglądają. W coraz większej liczbie przypadków trudno poznać się na tym, czy mamy do czynienia z prawdziwym człowiekiem, czy z wytworem komputera.
Sztuczne wizerunki ludzi są coraz lepsze
O ile w przeszłości pojawiało się całkiem sporo artefaktów dotyczących wyglądu, o tyle w nowej generacji GAN tak często one nie występują lub trudno je zauważyć. Chodzi o narzędzie StyleNeRF opracowane przez naukowców z Instytutu Informatyki im. Maxa Plancka oraz badaczy z Uniwersytetu w Hongkongu. Nowy typ generatywnej sieci neuronowej jest oparty o technologię 3D, która potrafi stworzyć dwuwymiarową fotorealistyczną grafikę, która do złudzenia przypomina prawdziwe zdjęcie.
StyleNeRF wygląda na niesamowicie potężne narzędzie. Przykłady jego wykorzystania przedstawione przez twórców nie pozostawiają złudzeń – coraz trudniej odróżnić wytwór komputera od prawdziwego świata. To z jednej strony zachwycające, z drugiej zaś przerażające.
Technologia GAN i animacji została wykorzystana m.in. przez Disneya w różnych produkcjach, by ożywić wizerunki zmarłych aktorów. To jest przykład bardzo dobrego i nieszkodliwego zastosowania algorytmów. Niestety wszystko ma swoje ciemne strony – dzięki udoskonalonym sieciom GAN, fake newsy staną się jeszcze lepsze. Rozpoznawanie tego, co sztuczne, a co prawdziwe, może być niemożliwe.
Cała naukowa dokumentacja projektu StyleNeRF dostępna jest na stronie internetowej.