Snelle toegang:
Direct naar inhoud gaan (Alt 1)Direct naar secundaire navigatie gaan (Alt 3)Direct naar hoofdnavigatie gaan (Alt 2)

Waarheid en leugen
Geloof niet alles wat je ziet

Ilustracja: Nie wierzcie własnym oczom
© Polityka Insight

Wat is het verband tussen Paul Walker in Fast & Furious 7 en Carrie Fisher in Rogue One: A Star Wars Story? Ze waren beiden te zien in scènes waarin ze helemaal niet hadden meegespeeld. Paul Walker was al overleden toen er 350 extra scènes met hem werden ingeblikt. Carrie Fischer was er destijds, op haar zestigste, van overtuigd dat de filmmakers oude opnamen van haar gebruikt hadden. Later kwam ze erachter dat de beelden met de computer gemaakt waren.

Von Michał Zieliński, Polityka Insight

Al decennialang maakt de filmindustrie gebruik van speciale effecten, maar nog niet zo heel lang geleden was het manipuleren van beelden en geluid een dure en moeilijke aangelegenheid, alleen weggelegd voor specialisten. Dankzij de technologische vooruitgang is dat soort technologie vandaag ook beschikbaar voor ervaren computergebruikers. Zo kunnen programmeurs met TensorFlow, een open source programmabibliotheek voor artificiële intelligentie, bijvoorbeeld het hoofd van de Israëlische “Wonder Woman”-actrice Gal Gadot in een seksvideo monteren – zoals Reddit-gebruiker “deepfakes” deed, die zijn naam gaf aan het fenomeen van het manipuleren van audiovisuele inhoud met behulp van artificiële intelligentie. We staan aan het begin van een nieuwe tijd, waarin zowat iedereen die over een notebook en een eenvoudige camera beschikt, in staat is audiovisuele inhoud naar believen te manipuleren.

NIEUWE TECHNOLOGIE OM MAKKELIJKER TE MANIPULEREN

Met behulp van de software FakeApp kan men gezichten in films naar believen verwisselen. Hiervoor heb je ongeveer 500 portretfoto‘s nodig van een persoon. Op basis van die foto’s “leert” de gebruikte artificiële intelligentie hoe die persoon eruitziet. Vervolgens kan de app zijn of haar gezicht op andere beelden herkennen of overzetten op videobeelden van iemand anders. In 2016 stelde het bedrijf Adobe de software VoCo voor, waarmee men spraakopnamen naar believen kan veranderen. Deep Learning-algroritmes kunnen nu al driedimensionale gezichtsmodellen creëren op basis van gewone foto‘s. Ze kunnen de lichtbron en de schaduwwerking op foto‘s veranderen, filmbeelden automatisch van passende geluiden voorzien, en zelfs – zij het nog wat stuntelig – beelden maken op basis van beschrijvingen.

Het onderzoeksproject Face2Face [9] laat zien hoe de gelaatstrekken van de ene persoon in realtime op die van een ander kunnen worden overgezet. Het is maar een kwestie van tijd voor deze methode ook op smartphones beschikbaar zal zijn. Volgens een studie van softwarebedrijf Pegasystems [10] gebruikt 77 procent van de consumenten vandaag al diensten of toestellen waarin artificiële intelligentie een rol speelt – en meer dan de helft daarvan doet dit zonder het zelf te weten.

"Elke reeks nullen en enen kan gemakkelijk worden veranderd zonder dat we het merken. Dit betekent dat het populairste medium voor audiovisuele informatieoverdracht vatbaarder is geworden voor manipulatie.[LC1] 
 [LC1]Deze tekst komt integraal en letterlijk terug in de volgende alinea. 1 van beide verwijderen?"


Volgens een enquête in het kader van de Eurobarometer 2017 over het gebruik van media in de Europese Unie kijkt 84 procent van de Europeanen dagelijks of bijna dagelijks televisie. Dat is twee procent minder dan in 2016. De digitalisering van de televisie is volop bezig en volgens experts zullen tv-uitzendingen almaar interactiever worden. Maar elke reeks nullen en enen kan gemakkelijk worden veranderd zonder dat we het merken. Dit betekent dat het populairste medium voor audiovisuele informatieoverdracht vatbaarder is geworden voor manipulatie. Persoonlijke communicatie blijft dan nog de enige manier van communiceren die niet gemanipuleerd kan worden.

NIEUWE MOGELIJKHEDEN VOOR MANIPULATOREN

De nieuwe technologieën hebben overal ingang gevonden, ook bij criminelen, terroristen en demagogen. In 2018 publiceerde het onlineportaal BuzzFeed  een video waarin Barack Obama waarschuwde voor deep fakes. Pas in het tweede deel van de video wordt duidelijk dat het hier helemaal niet Obama is die spreekt, maar de Amerikaanse acteur Jordan Peele, die de voormalige VS-president “woorden in de mond legt”.

Ook zogenaamd  “fake news” (nepnieuws) dat uitsluitend uit tekst bestaat, kan de publieke opinie grondig dooreen schudden. In april 2013 namen hackers de controle over het Twitteraccount van het Amerikaanse nieuwsagentschap Associated Press over en postten ze de tweet “Breaking News: twee explosies in het Witte Huis, Barack Obama gewond”. Het zorgde zelfs voor een schok op de beurzen: binnen twee minuten daalde de waarde van Amerikaanse aandelen met in totaal 136 miljard euro. En in Myanmar waren haatberichten op Facebook mee verantwoordelijk voor de vervolging van de Rohingya-minderheid.


"Tot voor kort golden video’s als onweerlegbaar want niet vervalsbaar bewijs. Vandaag kan een video net zo vals zijn als een bericht op Facebook, maar de gebruikers zijn daar niet op voorbereid."


Maar ons vertrouwen in video- en audio-opnamen is nog veel groter: tot voor kort golden ze als onweerlegbaar bewijs. Ze waren immers niet te vervalsen. Vandaag kan een video net zo fake zijn als een bericht op Facebook, maar de gebruikers zijn daar niet op voorbereid. Tijdens een experiment aan de Universiteit van Warwick[11] werd 30 procent van de gemanipuleerde beelden die de deelnemers te zien kregen, niet als een vervalsing herkend.

Laten we ons even het volgende scenario voorstellen: twee dagen voor de parlementsverkiezingen duikt er een video op waarin te zien is hoe iemand met de reputatie van een zeer eerlijk politicus zich laat omkopen. Pas na de verkiezingen kan bewezen worden dat de video vervalst werd. Compromitterende geluidsopnamen duiken tegenwoordig over de hele wereld op, en het valt niet meer uit te sluiten dat het om vervalsingen gaat. Veiligheidsexperts wijzen erop dat de grootste bedreiging schuilt in authentieke opnamen en documenten die nadien vervalst worden.

Het verlies van ons vertrouwen in beeld- en geluidsdocumenten zal verstrekkende gevolgen hebben. De juridische bewijsvoering zal moeilijker worden. Journalisten zullen alle documenten uiterst nauwkeurig op hun echtheid moeten controleren. En niet-democratische regimes zullen de technologische mogelijkheden gebruiken om met behulp van almaar overtuigender beeldmanipulatie, in combinatie met mediacensuur, aan de macht te blijven.

GOEDE VERSUS SLECHTE ARTIFICIËLE INTELLIGENTIE 

Overheden, bedrijven en onderzoeksinstellingen maken zelf al gebruik van Deep Learning-algoritmes om manipulaties op het spoor te komen. Er is hoop dat de manipulatie van livebeelden kan worden tegengegaan door cryptografische methoden om signalen te versleutelen. En softwarebedrijven werken nu al aan browserextensies die de gemiddelde internetgebruiker in de toekomst op gemanipuleerde foto’s en video’s moeten wijzen.

Ook wordt door sommige regeringen al overwogen om de toegang tot programma‘s voor audio- en videobewerking te beperken of de mogelijkheden van dat soort programma‘s te begrenzen. In Frankrijk is het voortaan verplicht het retoucheren van modellenfoto’s te melden, om jonge mensen te beschermen tegen anorexia. En de belangrijkste producenten van printers en kopieertoestellen hebben in hun machines een beveiliging ingebouwd die het onmogelijk maakt bankbiljetten te kopiëren. In een volgende stap wordt voorzien de perswet uit te breiden naar sociale netwerken, zodat men de netwerkconcerns aansprakelijk kan stellen voor valse berichten – een maatregel die ongetwijfeld zou leiden tot de ontwikkeling van automatische analysesystemen.

Bovendien debatteren experts momenteel over de mogelijke inzet van blockchaintechnologie – de technische basis van cryptogeld – om online-inhoud te verifiëren. Dit zou neerkomen op de invoering van een digitaal watermerk, dat informatie bevat over de auteur van de betreffende bijdrage.

Het belangrijkste is echter dat wij als ontvangers een kritischer houding ontwikkelen. Zodra we merken dat een video sterke emoties in ons opwekt, zouden we bijzonder op onze hoede moeten zijn, want doorgaans is dat net het belangrijkste doel van zij die de video gemanipuleerd hebben.

 

Top