Na skróty:

Przejdź bezpośrednio do treści (Alt 1) Przejdź bezpośrednio do menu głownego (Alt 2)

Jak AI przyczynia się do powstawania fake newsów?

KI
© Goethe-Institut

Czy to zdjęcie zostało zrobione aparatem fotograficznym czy wygenerowane w aplikacji wspieranej przez sztuczną inteligencję? Czy ten znany aktor, który zachęca mnie do inwestycji w akcje koncernu paliwowego, naprawdę powiedział te słowa? Czy skoro tak dużo ludzi twierdzi, że Ziemia jest płaska, to może coś jest na rzeczy?
 

Piotr Henzler

Ciemną stroną rozwoju sztucznej inteligencji (jedną z ciemnych stron) jest to, że przyczynia się ona niezwykle silnie do produkcji i rozpowszechniania dezinformacji i fake newsów. W jaki sposób? AI z jednej strony pozwala (bądź ułatwia) tworzyć treści, z drugiej – oferuje skuteczne narzędzia do jej rozpowszechniania. Na co możemy trafić?

Fake newsy tekstowe

Póki co (pytanie, jak długo), najwięcej fake newsów ma charakter tekstowy. To krótsze lub dłuższe artykuły, które mogą być w całości zmyślone lub – co trudniejsze do rozpoznania – częściowo prawdziwe, a częściowo fałszywe. Do tego artykuły niby prawdziwe, ale ukazane w takim kontekście, że zmienia się ich wymowa czy znaczenie. Ale to też komentarze do artykułów (i innych materiałów), opinie, wpisy w mediach społecznościowych itp.
I wprawdzie część z nich powstaje metodą „rzemieślniczą”, czyli jest osoba/są osoby, które mniej lub bardziej intencjonalnie je tworzą, to technologia pozwala na zautomatyzowanie i zintensyfikowanie tych procesów. Materiały pisane można tworzyć z wykorzystaniem aplikacji bazujących na LLM (dużych modelach językowych)), jak m.in. najbardziej znane Chat GPT czy Copilot. Algorytmy językowe i wykorzystujące je aplikacje pozwalają nie tylko na tworzenie pojedynczego materiału „na zamówienie”, ale też na generowanie automatycznych komentarzy, reakcji czy wpisów w mediach społecznościowych, które dodatkowo mogą być targetowane (ukierunkowywane), z wykorzystaniem algorytmów rządzących tymi mediami, do zdefiniowanych grup odbiorców (np. do tych, którzy są zwolennikami danej partii politycznej, przeciwnikami szczepionek czy zwolennikami teorii o płaskości Ziemi).
Jaka jest skala? Wg niedawno opublikowanego raportu Bad Bot Report, opublikowanego przez agencję Imperva, zależną od potężnej firmy zajmującej się m.in. bezpieczeństwem w internecie, Thales, 51% ruchu w internecie, głownie w mediach społecznościowych, generują boty. Nie są to komentarze czy wpisy zamieszczane przez ludzi, a przez maszyny…

Deepfake

Prawdziwą rewolucję przyniosła jednak AI w sferze zdjęć i filmów, mediów, które - wydawało się - są odporne na manipulacje. Jeszcze do niedawna popularne było angielskie powiedzenie „pic or it doesn't exist” (pokaż zdjęcie albo to nie istnieje), czyli założenie, że jeśli jakąś informację potwierdzimy zdjęciem, to dopiero wówczas możemy mieć pewność, że dana informacja jest prawdziwa. W tej chwili jest to już przebrzmiała, nieaktualna zasada.
Sztuczna inteligencja pozwala na niemal dowolne modyfikacje zdjęć. Już przed jej skokowym rozwojem w ostatnich latach istniały oczywiście programy zmieniać zdjęcia, pozwalające podmieniać tło, „upiększać” obiekty, usuwać niechciane osoby. Ale teraz? AI pozwala niemal na wszystko. Chcesz, żeby Twoi znajomi myśleli, że na co dzień chodzisz w szatach królewskich, jeździsz luksusowym samochodem, a ciało masz muskularne jak Herkules? Znajdź zdjęcia dowolnych osób w opisanych sytuacjach i skorzystaj z jednej wielu aplikacji typu „face swap” i podmień twarz osoby na zdjęciu na swoją własną.
Masz zdjęcie znanej osoby i chcesz, żeby coś „powiedziała”? Albo chcesz, żeby pies sąsiada, którego uwieczniłeś na zdjęciu, zaczął biegać wokół trzepaka? Nie ma problemu, są aplikacje, które „ożywiają” zdjęcia, dodają ruch i akcję, o którą poprosisz.
Ale przecież film można uzyskać nie tylko przez „ożywianie zdjęcia”, a po prostu, pisząc prompta (polecenie) – przygotuj film, pokazujący… I tu podajesz, na czym Ci zależy. Chcesz pokazać, że nadajesz relację w czasie powodzi? Usiądź wygodnie w domu i poproś aplikację o przygotowanie odpowiedniego tła. Przygotowujesz materiał „antyszczepionkowy”? Poproś AI, żeby przygotowała film pokazujący kilkanaście osób zwijających się z bólu po przyjęciu jakiegoś zastrzyku.
Planujesz w swoich materiałach wykorzystać znane osoby? Dzięki funkcji „lip sync”, czyli synchronizacji ruchu warg, można dowolnej osobie włożyć w usta dowolne słowa, a efekt może być naturalny. W ten sposób Donald Tusk i Andrzej Duda namawiali do „inwestowania w Baltic Pipe” a biskup Kazimierz Nycz zachęcał do kupna medykamentu na bolące nogi.
Chcesz się pochwalić, że mówisz po portugalsku? Nagraj filmik po polsku, wrzuć w odpowiednią aplikację i za chwilę będziesz mieć ten sam materiał, ale z głosem – swoim! – mówiącym w tym języku.
A jeśli masz odpowiedni budżet i już pewne umiejętności, to możesz wykorzystać AI do modyfikowania tego, co ktoś mówi, na żywo. I to jest dopiero pole do popisu i nadużyć…

Rozpowszechnianie fake newsów

Sztuczna inteligencja nie tylko pomaga w tworzeniu nieprawdziwych informacji, tekstowych, zdjęciowych czy filmowych. AI wspiera również ich dystrybucję. Jak?
Boty/farmy botów przeczesują internet, publikując swoje treści w różnych miejscach, odpowiadając na materiały już wcześniej zamieszczone czy komentując wpisy innych osób. Tworzą w ten sposób wrażenie, że „wszyscy o tym mówią”, a skoro mówią tak „wszyscy”, to na wiele osób zaczyna działać zasada „społecznego dowodu słuszności”, wiary w to, że duża grupa ma rację.
Odmianą takiego „zalewania” internetu przez zwolenników jednego poglądu jest tzw. brigading, czyli „atak” na wybrane wątki w dyskusji czy np. masowe wystawianie dobrych/złych ocen różnym obiektom tak, aby „zalać” głosy przeciwne i stworzyć wrażenie, że w danym obszarze panuje w zasadzie jednomyślność.
Na podobnej zasadzie funkcjonuje tzw. astroturfing, czyli skoordynowana kampania udająca głosy „zwykłych ludzi”. To może zwiększać wiarygodność, ponieważ dla wielu ludzi, zniechęconych do „źródeł oficjalnych”, głos „takich jak ja” ma duże znaczenie.
To tylko kilka przykładów pokazujących działania, którą mogą podejmować twórcy fake newsów, propagandziści czy nieuczciwi marketingowcy, którzy wykorzystując możliwości stworzone przez AI chcą wpłynąć na społeczne postrzeganie danego zjawiska lub zachęcić ludzi np. do inwestowania w ryzykowne projekty.
Sztuczna inteligencja wspiera (lub tworzy) nieprawdziwe informacje, sztuczna inteligencja pozwala zdefiniować szczególnie podatne na dane przekazy grupy odbiorców, sztuczna inteligencja pozwala do nich dotrzeć i sztuczna inteligencja pozwala „zalać” odbiorców informacjami tak, aby powstało wrażenie, że lansowany pogląd jest nie tylko słuszny, uzasadniony i prawdziwy, ale też podzielany przez dużą część społeczeństwa. A przynajmniej – bańki, w której żyjemy.
Czy jesteśmy wobec tych działań bezbronni? Technologia tak się rozwija, że rozpoznanie tak tworzonych fake newsów będzie coraz trudniejsze. Ale nie oznacza to, że jesteśmy bez szans. Zajrzyj do artykułu „Jak rozpoznać fake newsa?, aby poznać ogólne zasady oraz do artykułu „Jak rozpoznać deepfake’a”, żeby uzbroić się przeciw zmanipulowanym filmom i zdjęciom.

 

Perspectives_Logo Publikacja tego artykułu jest częścią projektu PERSPECTIVES – nowego przedsięwzięcia promującego niezależne, konstruktywne dziennikarstwo uwzględniające różnorodne punkty widzenia. Projekt ten, współfinansowany przez Unię Europejską, jest realizowany przez JÁDUwe współpracy z sześcioma redakcjami z Europy Środkowo-Wschodniej pod przewodnictwem Goethe-Institut. >>> Więcej o projekcie PERSPECTIVES