Na skróty:

Przejdź bezpośrednio do treści (Alt 1) Przejdź bezpośrednio do menu głownego (Alt 2)

Michał Zieliński
Nie wierzcie własnym oczom

Ilustracja: Nie wierzcie własnym oczom
© Polityka Insight

Co łączy aktorów Paula Walkera z Furious 7 i Carrie Fisher z Rogue One? Oboje nie zagrali w scenach, w których oglądali ich widzowie. Walker już nie żył, kiedy dokręcano 350 ujęć do filmu, a sześćdziesięcioletnia aktorka była przekonana, że w filmie wykorzystano jej stare nagrania. Później wyjaśniono jej, że to komputerowo spreparowany obraz.

Michał Zieliński, Polityka Insight

Efekty specjalne w studiach filmowych wykorzystuje się od dziesiątków lat, ale do niedawna manipulacja obrazem i dźwiękiem była droga, trudna i zarezerwowana dla specjalistów. Postęp technologiczny udostępnia podobne narzędzia każdemu zaawansowanemu użytkownikowi komputera. Przykładowo programista może wejść do bezpłatnej biblioteki oprogramowania TensorFlow i stworzyć swoją małą sztuczną inteligencję, by podmienić twarze aktorki porno i Gal Gadot, izraelskiej gwiazdy „Wonder Woman”. Tak zrobił jeden z użytkowników forum dyskusyjnego Reddit o pseudonimie „Deepfakes”. Stąd wzięła się nazwa określająca manipulację obrazu i dźwięku za pomocą sztucznej inteligencji. Właśnie rozpoczyna się kolejny etap, w którym prawie każdy użytkownik laptopa i standardowej kamery, dzięki upowszechnianiu się gotowych algorytmów, będzie mógł manipulować obrazem i dźwiękiem.

Nowe techniki manipulacji

Oprogramowanie FakeApp pozwala na podmianę twarzy we fragmencie filmu. Potrzebnych jest ok. 500 portretowych zdjęć danej osoby, na podstawie których sztuczna inteligencja „uczy się” jej wyglądu. Później aplikacja będzie potrafiła rozpoznać twarz na kolejnych zdjęciach lub tak przekształcić zdjęcie innej osoby, by zachowało cechy twarzy pierwowzoru. W 2016 r. firma Adobe przedstawiła VoCo - system do edycji dźwięku, za pomocą którego można spreparować dowolną wypowiedź.

Samouczące się algorytmy potrafią już m.in. tworzyć trójwymiarowe modele twarzy na podstawie ujęć 2D, samodzielnie zmieniać źródło oświetlenia i cienie na zdjęciach, automatycznie podkładać odpowiednie dźwięki na podstawie analizy obrazu filmowego, a nawet stworzyć obraz (choć jeszcze nieporadnie) na podstawie opisu. Naukowy projekt Face2Face[9] pokazuje, jak podmienić twarz osoby podczas wystąpień na żywo. Jeszcze nie jest to równie proste jak obsługa aplikacji na smartfona, ale z czasem zapewne będzie. Według badań Pega[10] aż 77 proc. konsumentów korzysta z usługi lub urządzenia wykorzystującego algorytmy sztucznej inteligencji, choć ponad połowa z nich o tym nie wie.

W każdy ciąg zer i jedynek można łatwo wprowadzać niewidoczne dla nas zmiany. To oznacza, że najpopularniejszy sposób publicznego rozpowszechniania informacji – za pomocą obrazu – stał się bardziej podatny na manipulację.

Zgodnie z badaniem Media use in the European Union na podstawie Eurobarometru, w 2017 r. 84 proc. mieszkańców Europy oglądało telewizję codziennie lub prawie codziennie – to o 2 pkt proc. więcej niż w 2016 r. Telewizja przeszła już na nadawanie cyfrowe, a według ekspertów programy będą coraz bardziej interaktywne, czyli cyfrowe. A w każdy ciąg zer i jedynek można łatwo wprowadzać niewidoczne dla nas zmiany. To oznacza, że najpopularniejszy sposób publicznego rozpowszechniania informacji – za pomocą obrazu – stał się bardziej podatny na manipulację. Jedynym niemanipulowalnym sposobem przekazu staje się rozmowa twarzą w twarz.

Kolejne narzędzie dla manipulatorów

Nowa technologia trafiła pod strzechy, czyli także do przestępców, terrorystów czy manipulatorów politycznych. W serwisie BuzzFeed opublikowano film, na którym Barack Obama przestrzega przed zmanipulowanymi przekazami wideo. Pod koniec okazuje się, że były prezydent w ogóle nie brał udziału w nagraniu, a jego ustami porusza komik Jordan Peele.

Do niedawna nagrania wideo stanowiły niezbite, bo surowe, nieprzekształcone dowody. Teraz film może być równie nieprawdziwy jak kilka zdań na Facebooku, na co odbiorcy nie są przygotowani.

Składające się z tylko z tekstu fake newsy potrafią wstrząsnąć opinią publiczną. W kwietniu 2013 r. hakerzy przejęli kontrolę nad kontem agencji prasowej Associated Press na Twitterze i wypuścili post: "Z OSTATNIEJ CHWILI: Dwie eksplozje w Białym Domu, Barack Obama jest ranny". Dwie minuty później kursy akcji spółek na giełdzie w Nowym Jorku straciły na wartości w sumie 136 mld dol. W Birmie za pomocą wpisów na Facebooku udało się doprowadzić do pogromów ludności Rohingya. A przecież wideo i nagraniom ufamy znacznie bardziej. Do niedawna stanowiły niezbite, bo surowe, nieprzekształcone dowody. Teraz film może być równie nieprawdziwy jak kilka zdań na Facebooku, na co odbiorcy nie są przygotowani. Badania Uniwersytetu Warwick[11] wykazały, że 30 proc. zmanipulowanych obrazów nie jest prawidłowo rozpoznawanych przez oglądających.

Wyobraźmy sobie, że dwa dni przed wyborami parlamentarnymi polityk słynący z uczciwości zostaje nagrany, jak przyjmuje łapówkę. Sprawdzenie oryginalności filmu i przekazanie opinii publicznej, że to oszustwo, uda się dopiero po wyborach. Nagrania audio kompromitujące polityków wypływają w każdym kraju, a teraz mogą być to nagrania fałszywe. Eksperci bezpieczeństwa publicznego wskazują, że największym zagrożeniem jest dodawanie do prawdziwych nagrań, wideo czy dokumentów fałszywych elementów.

Utrata zaufania do nagrań wideo i audio będzie miała duże konsekwencje. W sądownictwie problematyczne stanie się ocenianie materiałów dowodowych, a dziennikarze będą musieli dodatkowo weryfikować autentyczność materiałów. Nowoczesne technologie w rękach niedemokratycznych reżimów pomogą im utrzymać się u władzy, pozwalając na kolportowanie przekonujących, choć zmanipulowanych obrazów, a cenzurowane media nie wskażą opinii publicznej, że to oszustwo.

Zła kontra dobra sztuczna inteligencja

Rządy, biznes i naukowcy już zaprzęgają algorytmy sztucznej inteligencji, żeby rozpoznawała manipulacje produkowane przez inne algorytmy. Jest nadzieja, że kryptografia, czyli szyfrowanie kanałów komunikacji, ograniczy ingerencję w przekazy na żywo. Dla przeciętnych użytkowników rozwijane są rozszerzenia do przeglądarek internetowych, które oznaczają potencjalnie zmanipulowane zdjęcia czy wideo na stronach www.

Rządy rozważają ograniczenie dostępności lub możliwości narzędzi do edycji wideo i audio. Przykładami są Francja, która ograniczyła retuszowanie zdjęć modelek na okładkach magazynów mody, żeby walczyć z anoreksją, czy międzynarodowe porozumienie producentów fotokopiarek, którzy blokują kopiowanie banknotów. Rozwiązaniem może być obciążenie platform cyfrowych odpowiedzialnością za publikowanie zmanipulowanej treści, co zapewne przełoży się na stworzenie automatycznych systemów analizy zawartości. Eksperci dyskutują o wykorzystaniu blockchaina – technologii, na której oparte są kryptowaluty – do autentykacji treści w Internecie. Miałby to być cyfrowy znak wodny zawierający informacje o autorze treści. Najważniejsze jest jednak krytyczne nastawienie odbiorców treści. Jeśli wideo budzi w nas duże emocje, jest to pierwszy sygnał ostrzegawczy, bo o ich wzbudzenie zazwyczaj chodzi manipulantom.