Schnelleinstieg:
Direkt zum Inhalt springen (Alt 1)Direkt zur Sekundärnavigation springen (Alt 3)Direkt zur Hauptnavigation springen (Alt 2)

Ausgesprochen ... posthuman
Deepfake-Technologie – Identität in der Krise

Deepfake
Ist es wirklich passiert? Individuen können schneller ihre Identität an Deepfakes verlieren, als ihnen lieb ist. | Foto (Detail): Christian Gertenbach © Unsplash

Wer Bilder von sich ins Internet stellt, kann leicht zum Ziel von Deepfakes werden. Computer sind bereits in der Lage, Gesichter aus Fotos für Fake News oder gefälschte Pornovideos einzusetzen. Liwen Qin sorgt sich über die neuen Möglichkeiten der Technik.

Von Liwen Qin

Haben Sie den Film Rogue One: A Star Wars Story von 2016 gesehen? Wenn ja, erinnern Sie sich an den Großmoff Tarkin und die junge Prinzessin Leia? Beide sind gut gespielt, aber sie sind nicht „echt“. Die Filmemacher benutzten Face-Swapping- und Videosynthese-Technologien, um die Gesichter von lebenden Schauspielenden zu rekonstruieren und über die der künstlichen Doubles zu legen. Niemand war in der Lage, den Trick zu durchschauen. Inzwischen stellt diese Technologie die menschliche Gesellschaft vor unlösbare Herausforderungen.

Computer lernen immer besser zu fälschen

Die Technologie, die mithilfe einer künstlichen Intelligenz Bild und Ton generiert, wird „Deepfake“ genannt, eine Kombination aus den Begriffen „Deep Learning“ und „Fake“. Dieser Zaubertrick war in der Unterhaltungsindustrie ebenso wie in der Pornografie jahrelang weit verbreitet. Nun geht das Ganze noch einen Schritt weiter: Unter Verwendung der Mimik einer Person – aus Bildern oder Videos – kann die künstliche Intelligenz ein komplett neues Modell von ihr synthetisieren. Sie kann sogar auf der Basis von nur einem einzigen Bild ein Gesichtsmodell herstellen, auch wenn die Ergebnisse noch nicht sehr überzeugend sind. Deepfakes werden auf Open-Source-Plattformen entwickelt und dort täglich überarbeitet und verbessert.

Gefälschte Nacktbilder und Pornos möglich

Menschen wie etwa Politiker*innen und Prominente, zu denen eine Menge öffentlicher Bilddaten vorliegen, gehören zu den leichteren Zielen von Deepfake-Technologie. Ihre Gesichter könnten in Fake News oder gefälschten Pornovideos eingesetzt werden. Indem immer mehr Menschen Selfies und kurze Videos von sich selbst ins Internet stellen, kann die Technologie in böser Absicht gegen sie verwendet werden. Solche Fälle werden immer häufiger. Der US-Bundesstaat Virginia sah sich kürzlich gezwungen, ein „Revenge Porn“-Gesetz zu ergänzen, sodass es jetzt auch Deepfakes umfasst. Damit sollen rachsüchtige Menschen davon abgehalten werden, die Technologie zu nutzen, um ihren ehemaligen Ehepartner*innen oder Liebhaber*innen Schaden zuzufügen. Kürzlich wurde eine weitere App namens DeepNude ins Internet gestellt, mit der sich gefälschte Nacktbilder von Frauen erstellen lassen.

Befürwortet jener Präsidentschaftskandidat tatsächlich die Todesstrafe?

Ihre Identität an Deepfakes zu verlieren, ist für Individuen besorgniserregend genug. Noch viel besorgniserregender ist jedoch die Möglichkeit, dass Deepfakes zur Produktion von Fake News eingesetzt werden könnten. Ihr gezielter Einsatz für politische Zwecke könnte die Demokratie in ihren Grundfesten erschüttern und damit den Mechanismus, einen gesellschaftlichen Konsens herzustellen. Hat jener Präsidentschaftskandidat wirklich in einer privaten Rede die Todesstrafe befürwortet? Niemand kann beweisen, ob es tatsächlich passiert ist.

Da künstliche Intelligenzen äußerst schnell lernen, gibt es leider nach wie vor keine Technologie, die Deepfakes langfristig entlarven kann. Sobald ein gefälschtes Video auf eine bestimmte Art für unnatürlich befunden wird, etwa wenn die Person nicht oft genug blinzelt, wird ein Algorithmus eingesetzt, um diesen Aspekt zu verbessern.

Während sich Wissenschaft und Gesetzgebung um präventive Maßnahmen gegen den Missbrauch von Deepfakes bemühen, kann der Einzelne dazu beitragen, das Bewusstsein für diese Technologie zu stärken. „Seeing is believing“ ist keine verlässliche Richtschnur mehr. Wir müssen komplexere Methoden entwickeln, um zu erkennen, was wahr ist.
 

„Ausgesprochen …“

In unserer Kolumnenreihe „Ausgesprochen …“ schreiben im wöchentlichen Wechsel Liwen Qin, Maximilian Buddenbohm, Dominic Otiang’a und Gerasimos Bekas. Liwen Qin beobachtet in „Ausgesprochen … posthuman“ den technischen Fortschritt und wie er unser Leben und unsere Gesellschaft beeinflusst: im Auto, im Büro und an der Supermarktkasse.


 

Top