Schnelleinstieg:

Direkt zum Inhalt springen (Alt 1) Direkt zur Hauptnavigation springen (Alt 2)

Wie trägt KI zur Entstehung von Fake News bei?

KI
© Goethe-Institut

Wurde dieses Foto mit einer Kamera aufgenommen oder von KI generiert? Hat der prominente Schauspieler tatsächlich diese Worte ausgesprochen, um mich zum Aktienkauf eines Ölkonzerns anzustiften? Und wenn so viele Menschen behaupten, die Erde sei flach – steckt da womöglich doch etwas dahinter?

Von Piotr Henzler

Eine der dunklen Seiten der rasant voranschreitenden KI-Entwicklung ist, dass sie maßgeblich zur Erstellung und Verbreitung von Desinformationen und Fake News beiträgt. Wie kommt es genau dazu? KI erleichtert einerseits die Erstellung von Inhalten und stellt andererseits hochwirksame Werkzeuge für deren Verbreitung bereit. Womit können wir es zu tun haben?

Textbasierte Fake News

Noch – die Frage ist, wie lange aber – sind die meisten Fake News textbasiert: kürzere oder längere Texte, die entweder komplett erfunden sind oder – was schwerer zu erkennen ist – nur teilweise der Wahrheit entsprechen. Hinzu kommen scheinbar korrekte Beiträge, die in einen Kontext gerückt werden, der ihre Bedeutung verdreht. Damit sind auch Kommentare, Meinungsäußerungen und Beiträge in sozialen Netzwerken gemeint.
Ein Teil davon entsteht zwar weiterhin „in Handarbeit“, das heißt einzelne Personen oder Gruppen produzieren gezielt solche Inhalte. Doch Technologie automatisiert und skaliert diese Prozesse. Texte lassen sich heute mithilfe von Anwendungen erstellen, die auf Large Language Models (LLMs) basieren, wie den bekannten KI-Assistenten ChatGPT oder Copilot. Solche Systeme erzeugen nicht nur „Auftragsartikel“, sondern auch automatisierte Kommentare, Reaktionen und Social-Media-Posts, die zielgruppengenau ausgespielt werden können. Sie sind auf die Empfehlungsalgorithmen der Plattformen abgestimmt und können beispielsweise an Anhänger einer bestimmten Partei, Impfgegner oder Verfechter der Flacherd-These ausgespielt werden.
Wie groß ist die Dimension? Laut dem kürzlich veröffentlichten Bad Bot Report der zur Thales-Gruppe gehörenden Cybersicherheitsfirma Imperva werden 51 % des Internet-Traffics – insbesondere in sozialen Netzwerken – von Bots erzeugt. Es handelt sich also nicht um menschliche Beiträge, sondern um maschinell generierte Kommunikation…
Deepfakes
Die eigentliche KI-Revolution betrifft Bilder und Videos, die lange als scheinbar manipulationsresistent galten. Bis vor Kurzem war das englische Bonmot „pic or it didn’t happen“ – „Zeig ein Foto, sonst hat es nicht stattgefunden“ – weit verbreitet. Es steht für die Annahme, dass eine Information erst dann als zuverlässig gelten kann, wenn sie durch ein Foto belegt ist. Heute ist dieser Grundsatz überholt.
Künstliche Intelligenz erlaubt nahezu jede Art der Bildmanipulation. Natürlich gab es schon vor dem sprunghaften Entwicklungsschub der letzten Jahre Programme zur Bildbearbeitung, mit denen sich Hintergründe austauschen, Objekte „verschönern“ und unerwünschte Personen entfernen ließen. Heute jedoch ist fast alles möglich. Möchtest du, dass deine Freund:innen glauben, du trägst im Alltag königliche Gewänder, fährst Luxuswagen und hast den Körperbau eines Herkules? Dann nimm passende Fotos beliebiger Personen in solchen Situationen und nutze eine der zahlreichen Face-Swap-Apps – deine Gesichtszüge werden nahtlos in dein Wunschszenario montiert.
Du hast ein Foto einer bekannten Persönlichkeit und möchtest, dass sie „etwas sagt”? Oder der Hund des Nachbarn, den du fotografiert hast, soll plötzlich um die alte Teppichklopfstange rennen? Kein Problem: Es gibt Apps, die Fotos „zum Leben erwecken“, indem sie Bewegung und gewünschte Aktionen hinzufügen.
Ein Video muss nicht einmal mehr aus einem Foto „belebt“ werden – oft genügt ein Prompt wie „Erstelle einen Film, der … zeigt“. Du möchtest während einer Flutkatastrophe live berichten? Setze dich zu Hause hin und lasse die App die passende Kulisse generieren. Du planst einen „impfkritischen“ Clip? Bitte die KI um eine Sequenz, in der sich mehrere Personen nach einer Injektion vor Schmerzen winden.
Du möchtest Prominente einspannen? Mit Lip-Sync lassen sich beliebigen Gesichtern beliebige Worte in den Mund legen – in verblüffend natürlicher Anmutung. So „warben” etwa Donald Tusk und Andrzej Duda für das „Investieren in die Baltic Pipe” und Erzbischof Kazimierz Nycz „empfahl” ein Mittel gegen Beinschmerzen.
Du möchtest mit deinen Portugiesischkenntnissen glänzen? Dann nimm ein Video auf Polnisch auf, lade es in die passende App und kurz darauf hörst du deine Stimme, die scheinbar flüssig Portugiesisch spricht.
Mit Budget und Know-how lässt sich Sprache sogar live manipulieren. Genau hier beginnen die wirklich heiklen Spielräume – und Missbrauchsmöglichkeiten.

Verbreitung von Fake News

KI hilft nicht nur beim Erstellen falscher Texte, Bilder und Videos. Sie treibt auch deren Verbreitung voran. Wie?
Bots und Botfarmen durchkämmen das Netz, posten Inhalte in Foren und Kommentarspalten, reagieren auf bereits veröffentlichte Beiträge und antworten anderen Nutzer:innen. So entsteht der Eindruck, „alle reden darüber“. Und wenn „alle“ etwas sagen, greift häufig der Social Proof (soziale Bewährtheit): Was viele behaupten, wirkt glaubwürdiger.
Eine Variante dieser Überflutung ist das sogenannte Brigading: Dabei werden bestimmte Threads koordiniert angegriffen, etwa durch massenhaft positive oder negative Bewertungen, um Gegenstimmen zu überdecken und den Anschein breiter Einhelligkeit zu erzeugen.
Ähnlich funktioniert Astroturfing: orchestrierte Kampagnen, die wie die Stimmen „einfacher Leute“ wirken. Das erhöht die Glaubwürdigkeit – gerade bei Menschen, die „offiziellen Quellen“ misstrauen und der vermeintlichen Stimme ihrer Peergroup stärker trauen.
Das sind nur einige der Methoden, mit denen Produzent:innen von Fake News, Propagandist:innen oder unlautere Marketer:innen mithilfe von KI die öffentliche Wahrnehmung verschieben oder Menschen zu riskanten Investments bewegen wollen.
Künstliche Intelligenz unterstützt (oder erzeugt) unwahre Informationen. Sie ermöglicht es, besonders für bestimmte Botschaften empfängliche Zielgruppen zu definieren und diese zu erreichen. Zudem kann sie die Empfänger:innen so mit Informationen überfluten, dass der Eindruck entsteht, die propagierte Sicht sei nicht nur richtig, begründet und wahr, sondern werde auch von einem großen Teil der Gesellschaft geteilt – zumindest von der Blase, in der man sich bewegt.
Sind wir diesen Praktiken schutzlos ausgeliefert? Die Technik entwickelt sich so schnell, dass das Erkennen solcher Fälschungen immer schwieriger wird. Wehrlos sind wir dennoch nicht. Grundprinzipien helfen weiterhin und lassen sich trainieren. Lies den Artikel „Wie erkennt man Fake News?“, um die allgemeinen Grundsätze kennenzulernen, und den Artikel „Wie erkennt man Deepfakes?“, um dich gegen manipulierte Filme und Bilder zu wappnen.

 

Perspectives_Logo

Die Veröffentlichung dieses Artikels ist Teil von PERSPECTIVES – dem neuen Label für unabhängigen, konstruktiven, multiperspektivischen Journalismus. Das deutsch-tschechisch-slowakisch-ukrainische Onlinemagazin JÁDU setzt dieses von der EU co-finanzierte Projekt mit sechs weiteren Redaktionen aus Mittelosteuropa unter Federführung des Goethe-Instituts um. >>> Mehr über PERSPECTIVES
 

Top