Michał Zieliński
Nie wierzcie własnym oczom

Co łączy aktorów Paula Walkera z Furious 7 i Carrie Fisher z Rogue One? Oboje nie zagrali w scenach, w których oglądali ich widzowie. Walker już nie żył, kiedy dokręcano 350 ujęć do filmu, a sześćdziesięcioletnia aktorka była przekonana, że w filmie wykorzystano jej stare nagrania. Później wyjaśniono jej, że to komputerowo spreparowany obraz.
Michał Zieliński, Polityka Insight
Efekty specjalne w studiach filmowych wykorzystuje się od dziesiątków lat, ale do niedawna manipulacja obrazem i dźwiękiem była droga, trudna i zarezerwowana dla specjalistów. Postęp technologiczny udostępnia podobne narzędzia każdemu zaawansowanemu użytkownikowi komputera. Przykładowo programista może wejść do bezpłatnej biblioteki oprogramowania TensorFlow i stworzyć swoją małą sztuczną inteligencję, by podmienić twarze aktorki porno i Gal Gadot, izraelskiej gwiazdy „Wonder Woman”. Tak zrobił jeden z użytkowników forum dyskusyjnego Reddit o pseudonimie „Deepfakes”. Stąd wzięła się nazwa określająca manipulację obrazu i dźwięku za pomocą sztucznej inteligencji. Właśnie rozpoczyna się kolejny etap, w którym prawie każdy użytkownik laptopa i standardowej kamery, dzięki upowszechnianiu się gotowych algorytmów, będzie mógł manipulować obrazem i dźwiękiem.
Nowe techniki manipulacji
Oprogramowanie FakeApp pozwala na podmianę twarzy we fragmencie filmu. Potrzebnych jest ok. 500 portretowych zdjęć danej osoby, na podstawie których sztuczna inteligencja „uczy się” jej wyglądu. Później aplikacja będzie potrafiła rozpoznać twarz na kolejnych zdjęciach lub tak przekształcić zdjęcie innej osoby, by zachowało cechy twarzy pierwowzoru. W 2016 r. firma Adobe przedstawiła VoCo - system do edycji dźwięku, za pomocą którego można spreparować dowolną wypowiedź.Samouczące się algorytmy potrafią już m.in. tworzyć trójwymiarowe modele twarzy na podstawie ujęć 2D, samodzielnie zmieniać źródło oświetlenia i cienie na zdjęciach, automatycznie podkładać odpowiednie dźwięki na podstawie analizy obrazu filmowego, a nawet stworzyć obraz (choć jeszcze nieporadnie) na podstawie opisu. Naukowy projekt Face2Face[9] pokazuje, jak podmienić twarz osoby podczas wystąpień na żywo. Jeszcze nie jest to równie proste jak obsługa aplikacji na smartfona, ale z czasem zapewne będzie. Według badań Pega[10] aż 77 proc. konsumentów korzysta z usługi lub urządzenia wykorzystującego algorytmy sztucznej inteligencji, choć ponad połowa z nich o tym nie wie.
W każdy ciąg zer i jedynek można łatwo wprowadzać niewidoczne dla nas zmiany. To oznacza, że najpopularniejszy sposób publicznego rozpowszechniania informacji – za pomocą obrazu – stał się bardziej podatny na manipulację.
Kolejne narzędzie dla manipulatorów
Nowa technologia trafiła pod strzechy, czyli także do przestępców, terrorystów czy manipulatorów politycznych. W serwisie BuzzFeed opublikowano film, na którym Barack Obama przestrzega przed zmanipulowanymi przekazami wideo. Pod koniec okazuje się, że były prezydent w ogóle nie brał udziału w nagraniu, a jego ustami porusza komik Jordan Peele.Do niedawna nagrania wideo stanowiły niezbite, bo surowe, nieprzekształcone dowody. Teraz film może być równie nieprawdziwy jak kilka zdań na Facebooku, na co odbiorcy nie są przygotowani.
Wyobraźmy sobie, że dwa dni przed wyborami parlamentarnymi polityk słynący z uczciwości zostaje nagrany, jak przyjmuje łapówkę. Sprawdzenie oryginalności filmu i przekazanie opinii publicznej, że to oszustwo, uda się dopiero po wyborach. Nagrania audio kompromitujące polityków wypływają w każdym kraju, a teraz mogą być to nagrania fałszywe. Eksperci bezpieczeństwa publicznego wskazują, że największym zagrożeniem jest dodawanie do prawdziwych nagrań, wideo czy dokumentów fałszywych elementów.
Utrata zaufania do nagrań wideo i audio będzie miała duże konsekwencje. W sądownictwie problematyczne stanie się ocenianie materiałów dowodowych, a dziennikarze będą musieli dodatkowo weryfikować autentyczność materiałów. Nowoczesne technologie w rękach niedemokratycznych reżimów pomogą im utrzymać się u władzy, pozwalając na kolportowanie przekonujących, choć zmanipulowanych obrazów, a cenzurowane media nie wskażą opinii publicznej, że to oszustwo.
Zła kontra dobra sztuczna inteligencja
Rządy, biznes i naukowcy już zaprzęgają algorytmy sztucznej inteligencji, żeby rozpoznawała manipulacje produkowane przez inne algorytmy. Jest nadzieja, że kryptografia, czyli szyfrowanie kanałów komunikacji, ograniczy ingerencję w przekazy na żywo. Dla przeciętnych użytkowników rozwijane są rozszerzenia do przeglądarek internetowych, które oznaczają potencjalnie zmanipulowane zdjęcia czy wideo na stronach www.Rządy rozważają ograniczenie dostępności lub możliwości narzędzi do edycji wideo i audio. Przykładami są Francja, która ograniczyła retuszowanie zdjęć modelek na okładkach magazynów mody, żeby walczyć z anoreksją, czy międzynarodowe porozumienie producentów fotokopiarek, którzy blokują kopiowanie banknotów. Rozwiązaniem może być obciążenie platform cyfrowych odpowiedzialnością za publikowanie zmanipulowanej treści, co zapewne przełoży się na stworzenie automatycznych systemów analizy zawartości. Eksperci dyskutują o wykorzystaniu blockchaina – technologii, na której oparte są kryptowaluty – do autentykacji treści w Internecie. Miałby to być cyfrowy znak wodny zawierający informacje o autorze treści. Najważniejsze jest jednak krytyczne nastawienie odbiorców treści. Jeśli wideo budzi w nas duże emocje, jest to pierwszy sygnał ostrzegawczy, bo o ich wzbudzenie zazwyczaj chodzi manipulantom.