Neue Manipulationstechnologien  Traut euren Augen nicht

Illustration von einer blonden Frau mit Handy Illustration: © Polityka Insight

Wir stehen am Anfang einer Etappe, in der nahezu jeder Besitzer eines Notebooks und einer Standardkamera mithilfe vorgefertigter Algorithmen in der Lage ist, audiovisuelle Inhalte nach Belieben zu manipulieren.

Was haben Paul Walker in Fast & Furious 7 und Carrie Fisher in Rogue One: A Star Wars Story gemeinsam? Beide waren in Szenen zu sehen, in denen sie überhaupt nicht mitgespielt hatten. Walker lebte bereits nicht mehr, als 350 zusätzliche Szenen mit ihm gedreht wurden, und die damals sechzigjährige und mittlerweile ebenfalls verstorbene Carrie Fisher war überzeugt davon, dass die Macher des Films alte Aufnahmen von ihr verwendet hatten. Später erfuhr sie, dass die entsprechenden Bilder am Computer entstanden waren.

Spezialeffekte werden bereits seit Jahrzehnten in der Filmindustrie eingesetzt, doch bis vor nicht allzu langer Zeit war die Manipulation von Bildern und Tönen ein teures, schwieriges und Spezialisten vorbehaltenes Unterfangen. Dank des technologischen Fortschritts sind vergleichbare Technologien inzwischen auch für fortgeschrittene Computernutzer verfügbar. So können Programmierer zum Beispiel die Open-Source Programmbibliothek für künstliche Intelligenz TensorFlow nutzen, um den Kopf der israelischen Wonder Woman-Darstellerin Gal Gadot in ein Sex-Video zu montieren – so wie es der Reddit-User deepfakes tat, der dem Phänomen der Manipulation audiovisueller Inhalte mithilfe künstlicher Intelligenz seinen Namen gab. Wir stehen am Anfang einer neuen Etappe, in der nahezu jeder Besitzer eines Notebooks und einer Standardkamera mithilfe vorgefertigter Algorithmen in der Lage ist, audiovisuelle Inhalte nach Belieben zu manipulieren.

Neue Manipulationstechnologien

Mithilfe der Software FakeApp lassen sich Gesichter in Filmen beliebig austauschen. Benötigt werden rund 500 Porträtaufnahmen einer Person, mit deren Hilfe die verwendete künstliche Intelligenz das Aussehen dieser Person „lernt“. Anschließend ist die App in der Lage, das Gesicht der entsprechenden Person auf anderen Bildern zu erkennen oder es auf das Videobild einer anderen Person zu übertragen. 2016 präsentierte die Firma Adobe die Software VoCo, mit deren Hilfe sich Sprachaufzeichnungen beliebig verändern lassen. Deep-Learning-Algorithmen sind bereits in der Lage, dreidimensionale Gesichtsmodelle aus gewöhnlichen Fotografien zu erschaffen, die Lichtquelle und den Schattenwurf auf Fotografien zu verändern, Filmbilder automatisch mit passenden Tönen zu versehen und sogar, wenn auch noch etwas ungelenk, Bilder anhand von Beschreibungen zu erstellen.

Das Forschungsprojekt Face2Face demonstriert, wie sich die Gesichtszüge eines Menschen in Realzeit auf die eines anderen Menschen übertragen lassen. Es ist sicherlich nur eine Frage der Zeit, bis diese Methode auch auf Smartphones verfügbar sein wird. Nach einer Studie der Softwarefirma Pegasystems nutzen 77 Prozent der Konsumenten bereits Dienste oder Geräte, in denen künstliche Intelligenz zum Einsatz kommt – über die Hälfte davon, ohne es zu wissen.

Laut einer Umfrage im Rahmen des Eurobarometers 2017 zur Mediennutzung in der Europäischen Union sehen 84 Prozent der Europäer täglich oder fast täglich fern, das sind 2 Prozent weniger als 2016. Die Digitalisierung des Fernsehens ist in vollem Gange, und nach Meinung von Experten werden Fernsehsendungen zunehmend interaktiven Charakter annehmen. Doch jede Reihe von Nullen und Einsen lässt sich leicht verändern, ohne dass wir es merken. Das bedeutet, dass das populärste Medium für die audiovisuelle Vermittlung von Informationen anfälliger für Manipulationen geworden ist. Als einziger nicht manipulierbarer Kommunikationsweg bleibt die Face-to-Face-Kommunikation.

Neue Möglichkeiten für Manipulatoren

Die neuen Technologien haben überall Einzug gehalten – auch bei Kriminellen, Terroristen und Demagogen. Das Online-Portal BuzzFeed veröffentlichte 2018 ein Video, in dem Barack Obama vor Deep Fakes warnte. Erst im zweiten Teil des Videos wird deutlich, dass es gar nicht Obama ist, der da spricht, sondern der US-Schauspieler Jordan Peele, der dem früheren US-Präsidenten die Worte in den Mund legt.

Auch Fake News, die lediglich aus Text bestehen, sind in der Lage, die öffentliche Meinung zu erschüttern. Im April 2013 übernahmen Hacker die Kontrolle über den Twitter-Account der amerikanischen Nachrichtenagentur Associated Press und veröffentlichten den Tweet „Eilmeldung: Zwei Explosionen im Weißen Haus, und Barack Obama ist verletzt“. Damit sorgten sie selbst an den Börsen für einen Schock: Innerhalb von zwei Minuten verloren amerikanische Aktien insgesamt 136 Milliarden Euro an Wert. Und in Myanmar waren Hass-Postings auf Facebook mitverantwortlich für Pogrome gegen die Minderheit der Rohingya.

Doch unser Vertrauen in Video- und Audioaufzeichnungen ist noch wesentlich größer: Bis vor kurzem galten sie als unwiderlegbare, weil unverfälschte Beweise. Heute kann ein Video genauso unwahr sein wie eine Meldung auf Facebook, doch die Nutzer sind nicht darauf vorbereitet. Bei einem Experiment an der Universität Warwick wurden 30 Prozent der den Versuchsteilnehmern vorgelegten manipulierten Bilder nicht als Fälschung erkannt.

Stellen wir uns einmal das folgende Szenario vor: Zwei Tage vor den Parlamentswahlen taucht ein Video auf, das einen als besonders ehrlich geltenden Politiker dabei zeigt, wie er sich bestechen lässt. Der Nachweis, dass es sich bei dem Video um eine Fälschung handelt, kann erst nach den Wahlen erbracht werden. Kompromittierende Audioaufnahmen tauchen derzeit überall auf der Welt auf – und es kann nicht mehr ausgeschlossen werden, dass es sich um Fälschungen handelt. Sicherheitsexperten weisen darauf hin, dass die größte Bedrohung in authentischen Aufnahmen und Dokumenten besteht, die nachträglich verfälscht werden.

Der Verlust des Vertrauens in Bild- und Tondokumente wird weitreichende Folgen haben. Die juristische Beweisführung wird erschwert werden. Journalisten werden sämtliche Dokumente akribisch auf ihre Echtheit überprüfen müssen. Und nichtdemokratische Regime werden die neuen technischen Möglichkeiten dazu nutzen, um sich mithilfe immer überzeugender Bildmanipulationen und gleichzeitiger Zensur der Medien an der Macht zu halten.

Gute gegen böse künstliche Intelligenz

Regierungen, Wirtschaftsunternehmen und Forschungseinrichtungen verwenden bereits ihrerseits Deep-Learning-Algorithmen, um Manipulationen aufzuspüren. Es besteht Hoffnung, dass die Manipulation von Live-Bildern durch kryptografische Verfahren zur Verschlüsselung von Signalen eingeschränkt werden kann. Und Software-Firmen arbeiten bereits an Browser-Erweiterungen, die den durchschnittlichen Internetnutzer in Zukunft auf manipulierte Fotografien und Videos hinweisen sollen.

Manche Regierungen erwägen auch bereits, den Zugang zu Programmen zur Audio- und Videobearbeitung einzuschränken oder deren Möglichkeiten zu begrenzen. In Frankreich wurde eine Kennzeichnungspflicht für retuschierte Model-Fotos eingeführt, um junge Menschen vor der Magersucht bewahren. Und die führenden Drucker- und Kopiererhersteller installierten in ihren Geräten eine Sperre, die das Kopieren von Banknoten unmöglich macht. Ein weiterer Ansatz sieht vor, das Presserecht auf soziale Netzwerke auszudehnen, um die Netzkonzerne für Falschmeldungen haftbar machen zu können – eine solche Maßnahme würde sicherlich zur Entwicklung automatischer Analysesysteme führen.

Darüber hinaus diskutieren Experten derzeit über einen möglichen Einsatz der Blockchain-Technologie – der technischen Grundlage von Kryptowährungen – zur Authentifizierung von Online-Inhalten. Dies würde die Einführung eines digitalen Wasserzeichens bedeuten, das Informationen über den Autor eines Beitrags enthält.

Das Wichtigste ist jedoch die Förderung einer kritischen Haltung der Rezipienten. Sobald wir merken, dass ein Video starke Emotionen in uns hervorruft, sollten wir besonders wachsam sein, denn für gewöhnlich ist dies das Hauptziel der Manipulatoren.

Das könnte auch von Interesse sein

Failed to retrieve recommended articles. Please try again.

Empfehlungen der Redaktion

Failed to retrieve articles. Please try again.

Meistgelesen

Failed to retrieve articles. Please try again.