Facebook sprawdzi, czy udostępniane zdjęcia nie zawierają fałszywych informacji
Facebook od kilku lat chwali się, że walczy z nieprawdziwymi informacjami w udostępnianych artykułach. Niedawno portal ogłosił rozszerzenie sprawdzania faktów na zdjęcia i filmy.
17.09.2018 | aktual.: 26.07.2022 16:08
Powołany specjalnie do sprawdzania informacji publikowanych na Facebookuzespół "Feed News" analizuje treści, które zawierają fałszywe informacje. Sztuczna inteligencja wychwytuje teksty, które mogą zawierać nieprawdziwe informacje, a następnie analizuje je sztab odpowiedzialnych za to ludzi.
Na pewno spotkaliście się z pojawiającymi się na Facebooku artykułami o sensacyjnych tytułach, po kliknięciu w które link odsyłał was do zupełnie innej strony. Ich wtórcy zarabiają na kliknięciach osób, które dadzą się nabrać na chwytliwy tytuł. Między innymi z takimi treściami stara się walczyć Facebook.
Portal jest potężnym narzędziem, które pozwala na sianie dezinformacji. Wykorzystują to nieuczciwi, wielcy gracze w różnych dziedzinach - duże korporacje czy politycy. Do tej pory analitycy zajmowali się tylko artykułami. Teraz zabrali się również za filmy i zdjęcia. Co to oznacza w praktyce?
Sztuczna inteligencja wyszukuje fałszywe treści
Podobnie jak w przypadku prac nad tekstem, analitycy Facebooka stworzyli model uczenia maszynowego, który wykorzystuje różne sygnały zaangażowania, w tym opinie użytkowników Facebooka, w celu identyfikacji potencjalnie fałszywych treści. Później te filmy są sprawdzane przez ludzi za to odpowiedzialnych. Facebook współpracuje przy tym z zewnętrznymi firmami, które zajmują się weryfikacją wizualną i oceniają zdjęcia i filmy. Analizują one nie tylko sam obraz, ale również metadane, sprawdzając, między innymi, kiedy i gdzie zostało zrobione zdjęcie. Na podstawie tych danych osoby sprawdzające starają się ustalić, czy zdjęcia lub filmy są prawdziwe.
Do wyodrębniania tekstu ze zdjęć Facebook używa optycznego rozpoznawania znaków (OCR) i porównuje je z nagłówkami z artykułów. System sprawdzania zdjęć i filmów jest jeszcze w fazie doskonalenia i firma pracuje nad kolejnym metodami wykrywania manipulacji obrazów.
Zmanipulowane, wyrwane z kontekstu, z mylącym tekstem
Do tej pory udało się wyodrębnić trzy rodzaje dezinformacji na zdjęciach i filmach: manipulacja lub przetworzenie, wyrwanie z kontekstu i tekst na zdjęciu. Wizualny przekaz jest szczególnie interesujący dla nas, jako odbiorców, dzięki czemu ma większą szansę, że informacja w nim zawarta do nas dotrze.
Jeszcze sporo pracy i czasu potrzeba, żeby Facebook mógł skutecznie zapobiegać dezinformacji, o ile w ogóle jest to możliwe. Proces nauki wyłapywania nieprawdziwych informacji jest długi, a osoby odpowiedzialne za ich rozpowszechnianie znajdą inne sposoby na to, żeby wprowadzić odbiorców w błąd i odnoszę wrażenie, że będzie to ciągłe gonienie króliczka.
Powołanie zespołu do analizy treści publikowanych na portalu pod kątem zgodności z prawdą wydaje mi się być jedynie odpowiedzią na zarzuty postawione Facebookowi odnośnie tego, że jest idealnym medium do siania dezinformacji, między innymi przez polityków.
Co te zmiany oznaczają dla zwykłych użytkowników Facebooka? Nic nowego. Publikowane zdjęcia i teksty i tak były analizowane, żeby sprawdzić czy nie zawierają treści niedozwolonych. Jeśli publikujemy coś na portalu, to godzimy się na taką analizę.
Czy wyświetlane nam treści będą teraz prawdziwe i Facebook przestanie być narzędziem do manipulacji? Nie sądzę, aby to nastąpiło zbyt szybko, o ile w ogóle. Kiedy w grę wchodzą naprawdę duże stawki, trudno o uczciwość.