Philosophie   Wahrheit als Funktion

Zwei Kinder auf einem Hügel, die auf eine bombardierte Stadt hinabblicken.
Ein realistisches AI-generiertes Bild, das aber durchaus auch wahr sein könnte. © Adobe

Seit Platons Höhlengleichnis hält das Problem der Wahrheit die Philosophen in Atem und spornt sie unablässig zu neuen gedanklichen Höchstleistungen an. Die auch gerne mal in Plattitüden enden. „Das Wahre ist das Ganze“ ist eine, die Hegel’sche; dass die Wahrheit wese ist eine andere, die Heidegger’sche; dass die Aussage, der Schnee sei weiß, dann wahr sei, wenn der Schnee weiß sei, eine dritte, die Tarski sich ausgedacht hatte. 

Aber die Frage nach der Wahrheit ist alles andere als nur eine Angelegenheit für Freunde von Spitzfindigkeiten – Wahrheit hat für Menschen eine grundlegende orientierende Funktion. Wir wollen und müssen wissen, was wahr und was unwahr ist, weil keine Instinkte die Führung übernehmen, sondern wir mit der Unterscheidung zwischen Wahr und Unwahr selbständig versuchen müssen, uns in dieser verwirrend komplexen Welt zurecht zu finden.  

Wahrheit ist eine Eigenschaft von Aussagen, nicht von Dingen. 

Selbstverständlich stellt sich die Notwendigkeit dieser Unterscheidung mit unterschiedlicher Dringlichkeit: ob Taylor Swift wirklich singen kann oder nicht, ist ziemlich wurscht; dass Harvey Weinstein zurecht verurteilt wurde, nicht. Weil Wahrheit diese fundamentale orientierende Funktion hat, wollen wir wissen, ob beispielsweise Bilder die Wirklichkeit wiedergeben, ob sie wahr sind oder gefälscht. Und dies wird umso wichtiger, je schwerer uns auf der Seele lastete, wenn wir beispielsweise im Nachhinein feststellen müssten, dass wir die Unwahrheit geglaubt haben. Weshalb es so katastrophal ist, dass die Wahrheit im Krieg das erste Opfer ist.

Was man aber festhalten kann, ist Folgendes: Wahrheit ist eine Eigenschaft von Aussagen, nicht von Dingen. Dinge sind real oder irreal, aber sie sind nicht wahr (oder unwahr). Das sind nur Aussagen über die Realität dieser Dinge. Wahrheit ist somit eine Relation. Im gehobenen Bildungssprech lautet seit Thomas von Aquin die Formel dafür: adaequatio intellectus ad rem – die Angemessenheit des Gedankens an die Sache: Ob ein Gedanke oder eine Aussage wahr ist, hängt davon ab, ob sie der Sache angemessen ist. Dass diese Aussage, die ja eine Aussage darüber ist, wann Aussagen wahr sind, und die zur Frage führt, ob es auch eine Wahrheit jenseits der Sprache gibt, nie als zufriedenstellend befunden wurde, kann man sich ausrechnen. Aber wir können wir uns hier nicht in das Dickicht der Argumente und Gegenargumente begeben, die Hunderte von Regalmetern in jeder mittelgroßen Uni-Bibliothek füllen würden, da es hier um etwas anderes gehen soll. Und zwar um Wahrheit und Künstliche Intelligenz und die Frage, ob es einen funktionalen Wahrheitsbegriff geben kann. 

Für welches Problem ist die Idee von Wahrheit die Lösung? 

Funktionalismus in der Soziologie meint: Es wird die Frage gestellt, welche Funktion ein Phänomen in einer Gesellschaft erfüllt. Welche Funktion erfüllen beispielsweise Kunst, das Geld, die Liebe, das Digitale? Oder – andersherum: Für welches Problem ist eine Sache die Lösung? Für unseren Zusammenhang: Für welches Problem ist die Idee von Wahrheit die Lösung? Man kommt dann möglicherweise auf die ziemlich beunruhigende Feststellung, dass Wahrheit ganz banal die Eigenschaft von Aussagen ist, von denen Menschen behaupten, sie träfen zu. In der Sprache der Systemtheorie, zum Beispiel in der Definition des deutschen Soziologen und Gesellschaftstheoretikers Niklas Luhmann: „Wahrheit liegt immer dann vor, wenn und soweit Kommunikationspartner sich einig sind, dass eine berichtete Selektion auf beiden Seiten als Erleben zu behandeln ist, das heißt, der Welt zuzurechnen (….) ist.“[1]

Unter „Selektion“ versteht Luhmann hier einfach einen Realitätsausschnitt: Die Kommunikationspartner nehmen eine Auswahl (Selektion) aus dem Angebot „Realität“ vor, über die sie Einigkeit herstellen. Sie sagen: Dieses und jenes ist so. Wahrheit ist dann die Lösung für das Problem der Komplexitätsreduktion und der Handlungskoordination: Wenn Kommunikationspartner sich einig darüber sind, was wahr und was unwahr ist, fällt es ihnen leichter, das gemeinsame Handeln abzustimmen. Die Welt wird einfacher, wenn Einigkeit darüber herrscht, was wahr ist.  

Was erlogen ist, wird sich nur schwer gesamtgesellschaftlich durchsetzen lassen 

Dies entspricht nun nicht dem herkömmlichen Verständnis von Wahrheit: Wir wollen, dass etwas wahr ist, unabhängig davon, ob fünf Leute oder fünf Millionen es für wahr halten. Und die Vorstellung ist beängstigend, dass Unwahrheiten – beispielsweise in Form von AI-generierten Deep Fakes – sich in Wahrheiten verwandeln sollen, nur deshalb, weil eine ausreichend große Anzahl von Menschen der Meinung ist, was auch immer da in Nachrichtenkanälen zirkuliere, sei deshalb wahr, weil andere es dafür halten. Diese Ängste sind völlig berechtigt, und im Licht dieser Ängste erscheint die systemtheoretische Auffassung von Wahrheit als Funktion möglicherweise absurd.

Doch kann uns eine kleine, aber wichtige Feinheit trösten: Luhmann schreibt, auch die „gesicherte Unwahrheit“ sei „ein Erfolg.“[2] Was meint er mit Erfolg? Erfolg bedeutet: Eine Sache funktioniert. Sie funktioniert, weil sie auf irgendeine Art und Weise richtig mit dem Rest des gesellschaftlichen Funktionierens zusammenpasst.

Die Unterscheidung zwischen Unwahr und Wahr hat also dann Erfolg, wenn sie sich mit anderen gesellschaftlichen Teilbewegungen synchronisieren lässt. Was erlogen ist, wird sich nur schwer gesamtgesellschaftlich durchsetzen lassen, auch wenn es Erfolg in einem Teilsegment verbuchen mag. In dieser Perspektive ist es ein Trost (und eine Art Wahrheitsversicherung), dass es in der funktional diversifizierten Gesellschaft der Moderne kein Prinzip gibt, das die gesamte Gesellschaft übergreift, folglich der Kategorie der Wahrheit in jedem Teilsystem eine je andere Relevanz zukommt: eine zentrale in Wissenschaft und Justiz, eine nur begrenzte in der Wirtschaft und der Kunst (und gar keine beim Wertpapierhandel….). 

Eine solche Feststellung trifft auf demokratische Systeme zu, in denen sich Wissensformen und Inhalte in einem Wettbewerb miteinander befinden und um Erfolg konkurrieren, d.h. Erfolg verspricht, was den wertvollsten evolutionären Beitrag leistet. Anders verhält es sich mit autokratischen oder autoritären Systemen, die, was auch immer sie als Wahrheit etablieren wollen, mit Gewalt durchzusetzen vermögen. Ist dies aber erst einmal der Fall, macht AI nicht noch schlimmer, was man durch das stumpfe Wiederholen derselben Lügen, das Hijacken der Medien, das Bombardement mit Unfug auf allen TV-Kanälen und das Aushebeln der Gewaltenteilung nicht viel effektiver erreichen kann. Die Frage danach, worin der Zusammenhang zwischen AI und Wahrheit besteht, ist dann sowieso schon irrelevant geworden.  

[1] Niklas Luhmann, Systemtheorie der Gesellschaft, Berlin 2017, 489 f.
[1] Ebd., 499.

Das könnte auch von Interesse sein

Failed to retrieve recommended articles. Please try again.