Rozbierane zdjęcia i filmy na Facebooku? Meta ma sposób na poradzenie sobie z byłymi partnerami
W języku angielskim funkcjonuje określenie revenge porn oznaczające dosłownie pornografię z zemsty. Tak nazywa się intymne zdjęcia wrzucane na portale społecznościowe po to, by kogoś upokorzyć i się na nim zemścić – na przykład na byłym partnerze. Firma Meta (dawny Facebook) pracuje nad rozwiązaniem, które zapobiegnie tym działaniom.
03.12.2021 | aktual.: 26.07.2022 14:18
Ludzie często robią sobie rozbierane zdjęcia i nagrywają filmy. Dopóki są razem, wszystko jest w porządku, ale przy burzliwych rozstaniach takie materiały mogą służyć do wyrządzenia drugiej osobie sporej krzywdy. Wrzucenie rozbieranych, intymnych zdjęć jakiejś osoby do mediów społecznościowych w celu wystawienia jej na pośmiewisko może skończyć się naprawdę źle. Wyobraźcie sobie, co by się stało, gdyby tak wypłynęły zdjęcia jakiegoś prawnika lub polityka. Afera gwarantowana! Pamiętajmy też, że rozpowszechnianie wizerunku nagiej osoby lub osoby w trakcie czynności seksualnej jest przestępstwem. W Polsce grozi za to kara pozbawienia wolności od trzech miesięcy do pięciu lat.
Ten nielegalny proceder to revenge porn. Istnieje nawet specjalna organizacja pomocowa w Wielkiej Brytanii, która zajmuje się rozwiązywaniem takich problemów. Ostatnio Revenge Porn Helpline nawiązała współpracę z Metą (dawnym Facebookiem) po to, by usuwać kompromitujące materiały z Facebooka oraz Instagrama.
Początek prac nad usuwaniem rozbieranych zdjęć z mediów społecznościowych rozpoczął się już w 2017 roku, dzięki programowi w Australii. Wówczas polegał on na analizowaniu przez sztuczną inteligencję opisów i na podstawie tagów próbował wykrywać podobne do siebie zdjęcia, sugerujące revenge porn. Wówczas każde zgłoszenie było ręcznie przeglądane przez pracownika Facebooka, przez co przez jakiś czas musiały być one magazynowane na serwerach firmy. Od tamtej pory wiele się zmieniło.
Meta przekazała zajmowanie się kontrowersyjnymi materiałami firmie niezależnej o nazwie Stop Non-Consensual Intimate Images (StopNCII). Powstała ona na bazie zjednoczenia organizacji z 50 krajów, które mają rozwiązania sztucznej inteligencji wykrywające automatycznie niepożądane treści. Dzięki temu Meta otrzymuje raport, a nie same zdjęcia, więc te nie są nigdzie składowane. StopNCII też nie ma dostępu do oryginalnych plików, a jedynie zbiór danych, przekazany przez algorytmy. Są one na tyle dokładne, że można określić, co dzieje się na zgłoszonym obrazie.
Facebook i Instagram będą pierwszymi popularnymi platformami, które wezmą udział w programie, lecz już zgłaszają się kolejne. Jeśli którekolwiek zdjęcie w serwisie zostanie określone przez algorytm jako niebezpieczne, zajmie się nim moderator, który określi, czy zostały złamane standardy społeczności. Wszystko ma przysłużyć się bezpieczniejszemu korzystaniu z social mediów.