Medientheorie
Was ist Information?
Was hat Information mit Form zu tun und wie entsteht sie überhaupt, wie wird sie übertragen? Was ist der Unterschied zwischen Daten und Informationen? Wieso ist Information nicht ewig haltbar?
Von Andreas Ströhl
Informieren
Im Abendland stellt man sich seit Platon die physische Welt so vor, dass sie aus Materie besteht, die in Formen erscheint. Je näher diese Phänomene der ewig gültigen aber unerreichbaren Idee kommen, desto besser sind sie. Ein konkreter Stuhl zum Beispiel kann sich mehr oder weniger der Idee der perfekten Stuhlheit annähern, sie aber nie ganz erreichen.Verändern wir die Erscheinungsform der Materie (...), so informieren wir den betreffenden Gegenstand.
Materie tritt immer nur in Formen auf. Verändern wir die Erscheinungsform der Materie, gleichgültig, ob sie kulturell oder natürlich, also gemacht oder gegeben ist, so informieren wir den betreffenden Gegenstand. Verliert er dabei seine Form vollständig, so ist er deformiert. Information ist also eine Art von Verformung und im Grunde synonym mit Kultur: ein Eingriff in die Beschaffenheit der Welt.
Der Signal-Rausch-Abstand
Die kleinste Einheit von Information, ein Bit also, ist laut Gregory Bateson der kleinste Unterschied, der einen Unterschied macht, also zum Beispiel ein Bleistiftpunkt auf einem leeren Blatt Papier oder eine 1 in einer Reihe von Nullen. Bei der digitalen 1 ist klar, dass sie sich von einer 0 unterscheidet. Wie klein aber darf der Bleistiftpunkt sein, damit er als Unterschied wahrgenommen wird? Der Punkt darf natürlich nicht wirklich ein Punkt sein, denn ein solcher hat bekanntlich keine Ausmaße. Wie groß der Fleck aber sein muss, um vom menschlichen Auge beziehungsweise von den Medientechnologien erkannt zu werden, die als Verstärkung oder Prothesen für menschliche Sinnesorgane konstruiert worden sind, ist relativ. Unterhalb einer bestimmten Schwelle können wir einen Fleck nicht sehen, einen Ton nicht hören. Dieses spezifische Verhältnis heißt Signal-Rausch-Abstand. Sehr leicht veranschaulichen lässt er sich anhand von Schnittstellen zwischen der analogen Welt der Phänomene und der digitalen Welt binärer Codes. Wie stark müssen sich analoge Phänomene vom Grundrauschen abheben, um in ein digitales Signal umgewandelt zu werden, zum Beispiel von einer 0 in eine 1? Was wandelt ein Modem um, wann genau schaltet sich ein Bewegungsmelder ein, ab wann erkennt ein Scanner einen dunklen Fleck?
Information und Daten
Information ist eine menschliche und dazu noch eine kulturell codierte Größe. Beim Eiffelturm ist einfacher zu erkennen, dass er menschgemacht ist – also ein Zeichen –, als bei manchen Faustkeilen. Und trotzdem ist der Unterschied zwischen beiden relativ und fließend. Information ist Information nur in einem menschlichen Bewusstsein; Außerirdische könnten möglicherweise den Eiffelturm nicht von einem Baum oder Faustkeil unterscheiden oder auch gar nicht wahrnehmen. Wie aber lässt sich Information von einem Bewusstsein zu einem anderen übertragen? Die einfache Antwort: gar nicht.
Übertragbar sind Daten, nicht Information. Claude Shannon und Warren Weaver haben 1948 ein Modell für Datenübertragung von einem Sender zu einem Empfänger vorgelegt. Missverständlicherweise nannten sie es A Mathematical Theory of Communication („Mathematische Grundlagen der Informationstheorie“), wovon sich Kommunikationswissenschaft und Medientheorie bis heute nicht erholt haben. Dennoch: Die beiden Ingenieure zeigten deutlich, wie Information in Daten umgewandelt, durch einen Kanal zu einem Empfänger geschickt und dort wieder zu Information komputiert werden kann. Zwei Dinge sind daran interessant: Was ein Empfänger aus empfangenen Daten macht, hängt nicht allein von diesen ab und schon gar nicht von der Intention ihres Senders, sondern in hohem Maße von kulturellem Wissen, Interessenslage, Vorurteilen und Erfahrungen des Empfängers. Und zweitens: In den Kanälen der Datenübertragung herrscht immer ein Grundrauschen, und es kann leicht, wenn nämlich der Signal-Rausch-Abstand nicht groß genug ist, zu einer Kontamination der Daten durch dieses Rauschen kommen.
Das Rauschen in den Kanälen
Für die Imperfektion der Welt sollte man aber dankbar sein, sonst wäre sie ja auf ödeste Weise statisch: There’s a crack in everything, that’s how the light gets in, singt Leonard Cohen („In allem findet sich irgendwo ein kleiner Spalt, durch den das Licht dringt“).
Das Neue in der Welt
Nun sind aber lange noch nicht alle denkbaren Fehler passiert, noch nicht jedes Chromosom mutiert. Deshalb hat es den Anschein, als gäbe es doch immer wieder mal Neues. Doch das sind nur notwendig werdende Zufälle, Permutationen innerhalb eines gegebenen Repertoires. Künstlerische Leistung besteht in der Beschleunigung des Zufalls und der geschickten Auswahl der Permutationen. Tausend Affen an tausend Schreibmaschinen schreiben zufällig im Laufe einer Million Jahre auch notwendigerweise die Göttliche Komödie. Dante schrieb sie allein und in kürzerer Zeit, weil er unerwünschte Kombinationen im Permutationsspiel gleich verwarf.
Entropie
In einem geschlossenen System kann die Entropie nicht abnehmen; sie nimmt in der Regel zu. Und dieser Prozess ist kaum reversibel. Es ist leichter, aus einem Hühnerei ein Rührei zu machen, als umgekehrt. Entropie kann man sich als Maß der Unordnung vorstellen. Auch im Universum nimmt die Entropie zu. Es expandiert, und wenn es eine völlig unterschiedslose Streuung erreicht, ist keine Information mehr da und die Zeit aus.
Kultur, schreibt Vilém Flusser, lässt sich als „ein auf der linearen Tendenz der Natur zur Entropie sitzender Epizyklus“ betrachten. „Seit der Mensch seine Hand gegen die ihn angehende Lebenswelt ausstreckte […], versucht er, auf seinen Umstand Informationen zu drücken. Seine Antwort auf den Wärmetod und den Tod schlechthin ist: informieren.“
Autor