#Klartexte

Traut euren Augen nicht

Illustration: © Polityka Insight

Wir stehen am Anfang einer Etappe, in der nahezu jeder Besitzer eines Notebooks und einer Standardkamera mithilfe vorgefertigter Algorithmen in der Lage ist, audiovisuelle Inhalte nach Belieben zu manipulieren.

Was haben Paul Walker in Fast & Furious 7 und Carrie Fisher in Rogue One: A Star Wars Story gemeinsam? Beide waren in Szenen zu sehen, in denen sie überhaupt nicht mitgespielt hatten. Walker lebte bereits nicht mehr, als 350 zusätzliche Szenen mit ihm gedreht wurden, und die damals sechzigjährige und mittlerweile ebenfalls verstorbene Carrie Fisher war überzeugt davon, dass die Macher des Films alte Aufnahmen von ihr verwendet hatten. Später erfuhr sie, dass die entsprechenden Bilder am Computer entstanden waren.

Spezialeffekte werden bereits seit Jahrzehnten in der Filmindustrie eingesetzt, doch bis vor nicht allzu langer Zeit war die Manipulation von Bildern und Tönen ein teures, schwieriges und Spezialisten vorbehaltenes Unterfangen. Dank des technologischen Fortschritts sind vergleichbare Technologien inzwischen auch für fortgeschrittene Computernutzer verfügbar. So können Programmierer zum Beispiel die Open-Source Programmbibliothek für künstliche Intelligenz TensorFlow nutzen, um den Kopf der israelischen Wonder Woman-Darstellerin Gal Gadot in ein Sex-Video zu montieren – so wie es der Reddit-User deepfakes tat, der dem Phänomen der Manipulation audiovisueller Inhalte mithilfe künstlicher Intelligenz seinen Namen gab. Wir stehen am Anfang einer neuen Etappe, in der nahezu jeder Besitzer eines Notebooks und einer Standardkamera mithilfe vorgefertigter Algorithmen in der Lage ist, audiovisuelle Inhalte nach Belieben zu manipulieren.

Neue Manipulationstechnologien

Mithilfe der Software FakeApp lassen sich Gesichter in Filmen beliebig austauschen. Benötigt werden rund 500 Porträtaufnahmen einer Person, mit deren Hilfe die verwendete künstliche Intelligenz das Aussehen dieser Person „lernt“. Anschließend ist die App in der Lage, das Gesicht der entsprechenden Person auf anderen Bildern zu erkennen oder es auf das Videobild einer anderen Person zu übertragen. 2016 präsentierte die Firma Adobe die Software VoCo, mit deren Hilfe sich Sprachaufzeichnungen beliebig verändern lassen. Deep-Learning-Algorithmen sind bereits in der Lage, dreidimensionale Gesichtsmodelle aus gewöhnlichen Fotografien zu erschaffen, die Lichtquelle und den Schattenwurf auf Fotografien zu verändern, Filmbilder automatisch mit passenden Tönen zu versehen und sogar, wenn auch noch etwas ungelenk, Bilder anhand von Beschreibungen zu erstellen.

Das Forschungsprojekt Face2Face demonstriert, wie sich die Gesichtszüge eines Menschen in Realzeit auf die eines anderen Menschen übertragen lassen. Es ist sicherlich nur eine Frage der Zeit, bis diese Methode auch auf Smartphones verfügbar sein wird. Nach einer Studie der Softwarefirma Pegasystems nutzen 77 Prozent der Konsumenten bereits Dienste oder Geräte, in denen künstliche Intelligenz zum Einsatz kommt – über die Hälfte davon, ohne es zu wissen.

Laut einer Umfrage im Rahmen des Eurobarometers 2017 zur Mediennutzung in der Europäischen Union sehen 84 Prozent der Europäer täglich oder fast täglich fern, das sind 2 Prozent weniger als 2016. Die Digitalisierung des Fernsehens ist in vollem Gange, und nach Meinung von Experten werden Fernsehsendungen zunehmend interaktiven Charakter annehmen. Doch jede Reihe von Nullen und Einsen lässt sich leicht verändern, ohne dass wir es merken. Das bedeutet, dass das populärste Medium für die audiovisuelle Vermittlung von Informationen anfälliger für Manipulationen geworden ist. Als einziger nicht manipulierbarer Kommunikationsweg bleibt die Face-to-Face-Kommunikation.

Neue Möglichkeiten für Manipulatoren

Die neuen Technologien haben überall Einzug gehalten – auch bei Kriminellen, Terroristen und Demagogen. Das Online-Portal BuzzFeed veröffentlichte 2018 ein Video, in dem Barack Obama vor Deep Fakes warnte. Erst im zweiten Teil des Videos wird deutlich, dass es gar nicht Obama ist, der da spricht, sondern der US-Schauspieler Jordan Peele, der dem früheren US-Präsidenten die Worte in den Mund legt.

Auch Fake News, die lediglich aus Text bestehen, sind in der Lage, die öffentliche Meinung zu erschüttern. Im April 2013 übernahmen Hacker die Kontrolle über den Twitter-Account der amerikanischen Nachrichtenagentur Associated Press und veröffentlichten den Tweet „Eilmeldung: Zwei Explosionen im Weißen Haus, und Barack Obama ist verletzt“. Damit sorgten sie selbst an den Börsen für einen Schock: Innerhalb von zwei Minuten verloren amerikanische Aktien insgesamt 136 Milliarden Euro an Wert. Und in Myanmar waren Hass-Postings auf Facebook mitverantwortlich für Pogrome gegen die Minderheit der Rohingya.

Doch unser Vertrauen in Video- und Audioaufzeichnungen ist noch wesentlich größer: Bis vor kurzem galten sie als unwiderlegbare, weil unverfälschte Beweise. Heute kann ein Video genauso unwahr sein wie eine Meldung auf Facebook, doch die Nutzer sind nicht darauf vorbereitet. Bei einem Experiment an der Universität Warwick wurden 30 Prozent der den Versuchsteilnehmern vorgelegten manipulierten Bilder nicht als Fälschung erkannt.

Stellen wir uns einmal das folgende Szenario vor: Zwei Tage vor den Parlamentswahlen taucht ein Video auf, das einen als besonders ehrlich geltenden Politiker dabei zeigt, wie er sich bestechen lässt. Der Nachweis, dass es sich bei dem Video um eine Fälschung handelt, kann erst nach den Wahlen erbracht werden. Kompromittierende Audioaufnahmen tauchen derzeit überall auf der Welt auf – und es kann nicht mehr ausgeschlossen werden, dass es sich um Fälschungen handelt. Sicherheitsexperten weisen darauf hin, dass die größte Bedrohung in authentischen Aufnahmen und Dokumenten besteht, die nachträglich verfälscht werden.

Der Verlust des Vertrauens in Bild- und Tondokumente wird weitreichende Folgen haben. Die juristische Beweisführung wird erschwert werden. Journalisten werden sämtliche Dokumente akribisch auf ihre Echtheit überprüfen müssen. Und nichtdemokratische Regime werden die neuen technischen Möglichkeiten dazu nutzen, um sich mithilfe immer überzeugender Bildmanipulationen und gleichzeitiger Zensur der Medien an der Macht zu halten.

Gute gegen böse künstliche Intelligenz

Regierungen, Wirtschaftsunternehmen und Forschungseinrichtungen verwenden bereits ihrerseits Deep-Learning-Algorithmen, um Manipulationen aufzuspüren. Es besteht Hoffnung, dass die Manipulation von Live-Bildern durch kryptografische Verfahren zur Verschlüsselung von Signalen eingeschränkt werden kann. Und Software-Firmen arbeiten bereits an Browser-Erweiterungen, die den durchschnittlichen Internetnutzer in Zukunft auf manipulierte Fotografien und Videos hinweisen sollen.

Manche Regierungen erwägen auch bereits, den Zugang zu Programmen zur Audio- und Videobearbeitung einzuschränken oder deren Möglichkeiten zu begrenzen. In Frankreich wurde eine Kennzeichnungspflicht für retuschierte Model-Fotos eingeführt, um junge Menschen vor der Magersucht bewahren. Und die führenden Drucker- und Kopiererhersteller installierten in ihren Geräten eine Sperre, die das Kopieren von Banknoten unmöglich macht. Ein weiterer Ansatz sieht vor, das Presserecht auf soziale Netzwerke auszudehnen, um die Netzkonzerne für Falschmeldungen haftbar machen zu können – eine solche Maßnahme würde sicherlich zur Entwicklung automatischer Analysesysteme führen.

Darüber hinaus diskutieren Experten derzeit über einen möglichen Einsatz der Blockchain-Technologie – der technischen Grundlage von Kryptowährungen – zur Authentifizierung von Online-Inhalten. Dies würde die Einführung eines digitalen Wasserzeichens bedeuten, das Informationen über den Autor eines Beitrags enthält.

Das Wichtigste ist jedoch die Förderung einer kritischen Haltung der Rezipienten. Sobald wir merken, dass ein Video starke Emotionen in uns hervorruft, sollten wir besonders wachsam sein, denn für gewöhnlich ist dies das Hauptziel der Manipulatoren.

Michał Zieliński | Polityka Insight
Übersetzung: Heinz Rosenau

Dieser Text ist lizenziert unter Creative Commons Namensnennung – Nicht-kommerziell – Weitergabe unter gleichen Bedingungen 4.0 International (CC BY-NC-SA 4.0).
November 2018

    Themen auf jádu

    #Klartexte
    Ein aufmerksamer, unaufgeregter und kritischer Medienkonsum hilft. Wer die Mechanismen medialer Manipulation und Desinformation versteht und erkennt, minimiert das Risiko, sich betrügen zu lassen. Das ist das Ziel unseres Projektes #Klartexte. Mehr...

    Auf dem Land
    Klischees über Land und Provinz gibt es (in der Stadt) genug. Was ist dran? Wir haben uns mal umgeschaut.  Mehr...

    Gemischtes Doppel | V4
    Vier Kolumnisten aus der Slowakei, Tschechien, Polen und Ungarn schreiben über die Bedeutung Europas, Rechtspopulismus, nationale Souveränität, gesellschaftlichen Wandel, die Arroganz des westlichen Blicks – und brechen damit staatliche und gedankliche Grenzen auf. Mehr...

    Bis in beide Ohren
    Stimmen, Klänge, Geräusche. Angenehme und unangenehme. Solche, die (uns) etwas bedeuten, und solche, die nur sie selbst sind. Solche, die von außen kommen, aber natürlich auch solche, die wir selbst von uns geben. Ob wir können, wollen oder müssen: Hinhören lohnt sich. Mehr...

    Heute ist Morgen
    Oder ist es umgekehrt?! Und war nicht auch gestern schon mal Morgen? In was für einer Welt wollen wir gerne leben? Und wie lange wollen wir warten, bis sie Wirklichkeit wird? Mehr...

    Im Auge des Betrachters
    … liegt die Schönheit. Da liegt aber auch die Hässlichkeit – und alles dazwischen. Als Betrachter sind wir jedoch nur selten allein. Und als Betrachtete sowieso nicht. Mehr...

    Dazugehören
    Seit gesellschaftliche Akteure jeder Couleur ihre Forderung nach Integration einem Mantra gleich herunterbeten, gerät viel zu oft in Vergessenheit, dass Integration ein individueller Prozess ist, der auch von uns selbst etwas verlangt. Mehr...

    Themenarchiv
    Ältere jádu-Schwerpunkte findest du im Themenarchiv. Mehr...