Wie erkennt man Deepfakes?
Machen wir uns nichts vor: Einen Deepfake, also ein von KI manipuliertes oder vollständig generiertes Video, erkennt man nur dann ohne Weiteres, wenn die Urheber:innen nachlässig gearbeitet haben. Solche Fälle sind jedoch keineswegs selten, sodass unsere Chancen gar nicht so schlecht stehen.
Von Piotr Henzler
Es kursieren unzählige Videos, die nie stattgefundene Situationen, Personen, Ereignisse oder Aussagen zeigen. Zählt man noch manipulierte Fotos hinzu, ist die Begegnung mit einem Deepfake praktisch Alltag. Perfekt und unangreifbar sind sie jedoch selten. Warum? Weil es genug Menschen gibt, die eh falschen Clips oder Bildern glauben, selbst wenn diese nicht ausgearbeitet sind. Die meisten prüfen nicht, übersehen Details, reagieren emotional, erliegen dem Bestätigungsfehler, hoffen auf schnellen Gewinn usw. Kurz gesagt, Betrüger müssen sich oft nicht einmal besonders anstrengen.
Darin liegt die Chance für aufmerksame Nutzer:innen: Mit einem systematischen Vorgehen lassen sich manipulierte oder frei erfundene Inhalte oft zügig entlarven. Wie? Erstens mithilfe grundlegender Prinzipien des kritischen Denkens wie dem CRAAP-Modell (siehe „Wie erkennt man Fake News?“). Und zweitens (und drittens) prüfen wir Deepfakes gezielt auf typische Fehler und setzen KI gegen KI ein, also Werkzeuge zur KI-Erkennung. Die folgenden Hinweise zielen vor allem auf Videos ab, wobei vieles davon auch bei Bildern (bzw. KI-Bildern, die wie Fotos aussehen) funktioniert.
Typische Fehler in Deepfakes
Beim Prüfen eines Videos lohnt es sich, alle Bestandteile zu betrachten: die auftretenden Personen, die Stimme und die Sprechweise, das Hintergrundbild, die Qualität der Aufnahme usw. Jeder dieser Aspekte kann ein Warnsignal dafür sein, dass hier eine Scheinrealität konstruiert wurde.
Wer tritt auf?
Wirkt die Person wie ein KI-Avatar oder wie ein echter Mensch? Bei Avatar-Verdacht prüfen: Sieht das Gesicht natürlich aus? Hat die Person plötzlich sechs oder vier Finger? Ist der Hautton gleichmäßig? Synchronisieren sich die Lippenbewegungen mit dem Gesprochenen? Entsteht bei Bewegungen ein Nachzieheffekt oder Lichthof an der Stelle, an der die Person eben noch war? Solche Auffälligkeiten erhöhen das Fälschungsrisiko, wobei es natürlich auch Menschen mit einer abweichenden Fingerzahl oder Hautveränderungen gibt.Handelt es sich um eine echte Person, kann es sich entweder um eine anonyme Person („eine gewöhnliche Person“) oder um eine prominente Persönlichkeit, die in der Botschaft als „Autorität“ fungieren soll, handeln. Wenn es sich bei der Person um „eine gewöhnliche Person“ handelt, lässt sich ihre Glaubwürdigkeit in der Regel nicht verifizieren. Handelt es sich jedoch um Wissenschaftler:innen, Prominente oder Politiker:innen, lohnt ein genauerer Blick: Passt das Thema, über das die Person spricht, zu ihrer bekannten gesellschaftlichen oder beruflichen Rolle? Ein Beispiel aus dem Alltag: Ein „echter“ Kazimierz Nycz, der zum Kauf eines Mittels gegen Beinschmerzen anspornt… Das wäre möglich, aber ist es auch wirklich realistisch? Ebenso Elon Musk, der auf Polnisch zu Investitionen animiert: Vielleicht hat er wirklich für Werbezwecke Polnisch gelernt, aber… ist das wirklich realistisch?
Was hörst du?
Achte darauf, wie die Person spricht. Klingt die Stimme natürlich und dem Alter sowie dem Geschlecht angemessen? Stimmt die Intonation? Tauchen Einschübe in einer Fremdsprache auf oder gibt es Verzerrungen in der Aussprache?
Beobachte auch die Körpersprache. Klingt die Stimme beispielsweise ruhig und zurückgenommen, während die Person heftig gestikuliert? Oder spricht sie über ernste oder traurige Themen mit einer fröhlichen, energiegeladenen Stimme? Das könnte darauf hindeuten, dass der Ton einer völlig anderen Aufnahme unterlegt wurde.
Was siehst Du?
Zur Synchronisierung von Lippenbewegungen und Gesprochenem wurde bereits etwas gesagt, aber wirf noch einmal einen Blick auf den Mund der sprechenden Person. Wird das Bild beim Sprechen unscharf? Verändert sich die Gesichtsform auf eine unnatürliche Weise? Schau dir auch die Zähne an. Es kommt vor, dass Anwendungen zur Erstellung von Deepfakes beim Generieren des manipulierten Materials die Zähne „verlieren“ – alle oder nur einige.
Es lohnt sich auch, die Augen genauer zu betrachten. Wirkt der Blick natürlich und lebendig oder glasig und starr? Blinzelt die Person und wenn ja, in einer natürlichen Frequenz?
Wenn die Person Ohrringe, Ketten oder eine Brille trägt: Sehen diese Accessoires natürlich aus? Behalten sie ihre Form? Hinterlassen sie bei Bewegung einen Lichthof?
Richte den Blick schließlich über die sprechende Person hinaus. Was ist im Hintergrund zu sehen? Ist der Hintergrund thematisch passend oder zur Person stimmig? Tauchen dort seltsame oder unpassende Objekte auf? „Wogt” oder zerfließt der Hintergrund?
KI als Gegenmittel
Und was, wenn eine technische Analyse keine eindeutige Antwort darauf liefert, ob es sich um einen Deepfake handelt oder nicht? Dann kann zusätzlich künstliche Intelligenz zum Einsatz kommen. So wie KI maßgeblich an der Erstellung von Deepfakes beteiligt ist, lässt sie sich auch dafür einsetzen, die Echtheit von Videos (oder Bildern) zu überprüfen. Im Folgenden siehst du einige Beispiele solcher Anwendungen. In Wirklichkeit gibt es noch deutlich mehr.Verdächtiges Material kann man beispielsweise als Link oder Datei in die Anwendung Scanner.deepware.ai hochladen und eine Einschätzung zur Echtheit erhalten. Einfachere, aber ebenfalls gute Werkzeuge sind Attestiv.video oder Deepfake Detector, die auch eine Analyse von Fotos erlauben. Bilder und auch Texte werden zudem gut ausgewertet, ob sie von KI erzeugt wurden, von der Anwendung Isitai.com. Die meisten dieser Dienste (die hier genannten sind nur Beispiele) funktionieren so, dass eine begrenzte Anzahl von Materialien kostenlos geprüft werden kann und danach eine Bezahlung fällig wird. Es lohnt sich außerdem, ein und dasselbe Material an zwei Stellen prüfen zu lassen, um ein sichereres Ergebnis zu erhalten.
Wenn selbst das nicht ausreicht, kann man in der nächsten Untersuchungsphase prüfen, wer hinter der verbreiteten Nachricht steht (z. B. ob das Social-Media-Profil, das die Nachricht verbreitet hat, echt ist oder ob ein Bot dahintersteckt), wem die Website gehört, auf der das Material zuerst erschienen ist, oder ob die IP-Adresse der Website vertrauenswürdig ist. Wie macht man das? Formuliere in der Suchmaschine die passende Frage und suche gezielt nach weiteren Anwendungen, die bei solchen Aufgaben helfen. Viel Erfolg!
Die Veröffentlichung dieses Artikels ist Teil von PERSPECTIVES – dem neuen Label für unabhängigen, konstruktiven, multiperspektivischen Journalismus. Das deutsch-tschechisch-slowakisch-ukrainische Onlinemagazin JÁDU setzt dieses von der EU co-finanzierte Projekt mit sechs weiteren Redaktionen aus Mittelosteuropa unter Federführung des Goethe-Instituts um. >>> Mehr über PERSPECTIVES