Na skróty:

Przejdź bezpośrednio do treści (Alt 1) Przejdź bezpośrednio do menu głownego (Alt 2)

Jak rozpoznać deepfake’a?

KI
© Goethe-Institut

Nie łudźmy się. Rozpoznanie deepfake’a, czyli przerobionego lub stworzonego od zera przez sztuczną inteligencję filmu jest łatwe tylko w jednej sytuacji. Gdy ich twórca z jakiegoś powodu nie przyłoży się do pracy. Ale te sytuacje wcale nie są rzadkie i mamy spore szanse na sukces.

 

Piotr Henzler

Filmów, które przedstawiają nieistniejące sytuacje, osoby, wydarzenia czy wypowiedzi, jest mnóstwo. A jeśli dołożymy jeszcze do nich zmodyfikowane zdjęcia, to możemy przyjąć, że na spotkanie z deepfake’iem jesteśmy narażeni codziennie. Tylko że rzadko będzie to deepfake idealny, nie do rozpoznania. Dlaczego? Bo jest mnóstwo osób, które uwierzą w fałszywy filmik czy zdjęcie nawet wówczas, gdy nie będzie ono dopracowane. Bo ludzie nie analizują, nie zwracają uwagi na szczegóły, bo ulegają emocjom, bo działa efekty potwierdzenia, bo chcą szybko zarobić, bo chcą… Więc oszuści nie muszą się specjalnie przykładać do pracy.
To szansa dla uważnych konsumentów, którzy mogą czasem nawet dość szybko rozpoznać zmanipulowany lub całkowicie wymyślony materiał. Jak? Po pierwsze, stosując podstawowe zasady krytycznego myślenia i np. model CRAAP zaprezentowany w artykule  Jak rozpoznać fake newsa? A po drugie (i po trzecie) – analizując deepfake’i pod kątem typowych błędów i zaprzęgając AI, która często takie materiały tworzy, do pracy przeciwnej – rozpoznawania deepfake’ów. Poniższe zalecenia koncentrują się na filmach, ale zwróć uwagę, że wiele z nich świetnie sprawdzi się również w analizie zdjęć (czy raczej – obrazów stworzonych przez AI, wyglądających jak zdjęcia).

Typowe błędy w deepfake’ach

Analizując filmy warto przyjrzeć się wszystkiemu, co się na nie składa, czyli na postaci występujące, ich głos, sposób mówienia, tło na jakim występują, jakość materiału itp. Każdy z tych elementów może być dla nas ostrzeżeniem sugerującym, że mamy do czynienia z kreowaniem fałszywej rzeczywistości.

Kto występuje?
Przyjrzyj się postaci występującej w filmie. Jak myślisz. czy to awatar stworzony przez sztuczną inteligencję, czy prawdziwa osoba? Jeśli podejrzewasz, że awatar, zweryfikuj to. Czy wygląda naturalnie? Czy np. nie ma sześciu albo czterech palców? Czy ma jednolity kolor skóry? Czy usta poruszają się zgodnie z wypowiadanym tekstem? Czy jak się porusza, czy nie zostaje za nim „ślad”, poświata w miejscu, gdzie jeszcze chwilę wcześniej był? Jeśli zobaczysz coś podejrzanego, rośnie ryzyko, że to fake. Choć pamiętajmy, że są osoby z inną liczbą palców niż pięć lub z przebarwieniami skóry…
A jeśli to prawdziwa osoba, to może być to albo ktoś anonimowy („zwykły człowiek”), albo ktoś znany (mający być w tym przekazie „autorytetem”). Jeśli „zwykły”, to nie zweryfikujesz jego wiarygodności. Ale jeśli jakiś naukowiec, celebryta, polityk – warto się mu przyjrzeć. Czy temat, na który mówi, jest spójny z jego znaną rolą społeczną czy zawodową? Przykład z życia – „prawdziwy” Kazimierz Nycz, który namawia do kupna leku na nogi… Niby możliwe, ale czy realne? Ale też – Elon Musk po polsku zachęca do inwestycji… Może nauczył się naszego języka na potrzeby reklamy, ale czy to realne?

Co słyszysz?
Zwróć uwagę, jak osoba mówi. Czy jest to głos brzmiący naturalnie, dopasowany do wieku, płci? Czy stosowana jest właściwa intonacja? Czy nie zdarzają się wstawki w obcym języku albo zniekształcenia w wymowie?
Spójrz też na mowę ciała. Czy nie jest tak, że głos jest stonowany, spokojny, a osoba gestykuluje gwałtownie? Albo że o poważnych czy smutnych sprawach mówi głosem radosnym, energetycznym? Może to świadczyć o tym, że głos został podłożony do zupełnie innego nagrania.

Co widzisz?
O synchronizacji ruchu ust z wypowiadanym tekstem już było, ale przyjrzyj się jeszcze raz ustom osoby mówiącej. Czy nie jest tak, że obraz robi się rozmyty w czasie mówienia? Albo że kształt twarzy nienaturalnie się zmienia? Spójrz również na zęby. Zdarza się, że aplikacje tworzące deepfake, przy generowaniu zmanipulowanego materiału, w jakiś sposób je „gubią”: wszystkie albo część.
Warto też spojrzeć na oczy. Czy wzrok jest naturalny, żywy czy szklisty, nieruchomy? Czy osoba mruga (lub nie), ale też – czy mruga z naturalną częstotliwością?
Jeśli osoba ma kolczyki, łańcuszki czy okulary, to czy one wyglądają naturalnie, zachowują stały kształt, nie zostawiają za sobą poświaty przy ruchu?
Spójrz też szerzej, poza osobę wypowiadającą się. Co jest w tle? Czy tło jest adekwatne do tematyki lub spójne z osobą? Czy nie ma tam dziwnych, niepasujących obiektów? Czy tło nie „faluje”, nie rozpływa się?

AI na pomoc

A jeśli taka analiza techniczna nie da nam rozstrzygającej odpowiedzi na pytanie, czy mamy do czynienia z deepfake’iem, czy nie? Można jeszcze sięgnąć po pomoc do sztucznej inteligencji. Tak, jak ma ona niebagatelne zasługi w kontekście tworzenia deepfake’ów, tak i można ją wykorzystać do tego, aby pomogła zweryfikować prawdziwość filmów (lub obrazów). Poniżej zobaczysz kilka przykładów takich aplikacji, w rzeczywistości jest ich znacznie więcej.
Podejrzany materiał można wrzucić (jako link lub jako plik) np. do aplikacji Scanner.deepware.ai i otrzymać ocenę materiału – prawdziwy czy fałszywy. Prostszymi, ale też dobrymi narzędziami są Attestiv.video czy Deeepfake Detector, które pozwalają również na analizę zdjęć.  Zdjęcia też dobrze analizuje (a także tekst, pod kątem tworzenia przez AI) aplikacja Isitai.com. Większość z tego typu serwisów (bo to tylko przykłady) działa w ten sposób, że pozwala kilka pierwszych materiałów przeanalizować za darmo, a potem należy już płacić. Warto również rozważyć sprawdzenie jednego materiału w dwóch miejscach, aby zyskać większą pewność wyniku.
A jeśli i to będzie za mało, to pozostaje kolejna faza badań – sprawdzenie, kto stoi za rozpowszechnianą, wiadomością (np. czy rozsyłający informację profil w mediach społecznościowych jest prawdziwy, czy stoi za nim bot), do kogo należy strona internetowa, na której po raz pierwszy pojawił się materiał albo czy numer IP strony, na której jest film, jest wiarygodny czy nie. Jak to zrobić? Wpisz w wyszukiwarkę odpowiednie pytanie i wyszukaj kolejne aplikacje, pomocne w takich zadaniach. Powodzenia!

 

Perspectives_Logo Publikacja tego artykułu jest częścią projektu PERSPECTIVES – nowego przedsięwzięcia promującego niezależne, konstruktywne dziennikarstwo uwzględniające różnorodne punkty widzenia. Projekt ten, współfinansowany przez Unię Europejską, jest realizowany przez JÁDUwe współpracy z sześcioma redakcjami z Europy Środkowo-Wschodniej pod przewodnictwem Goethe-Institut. >>> Więcej o projekcie PERSPECTIVES