Und nach mir die Sintflut? Natur – Kultur: Kunst

Was kommt nach der Natur?

„Untitled Sound Objects”,  Performance transmediale 09 (Berlin) „Deep North“; Foto: Jonathan GrögerUnser Bild der Natur entsteht heute im Computer. Der Klimawandel wird verlässlich nur in der Digitalisierung und Virtualisierung sichtbar. Betreten wir das Zeitalter der Informatisierung der Natur?



Die Klimadebatte beherrscht das öffentliche Bewusstsein. Viele glauben den Klimawandel auch schon zu spüren: Sind die Sommer nicht heißer als früher, die Stürme extremer und war da nicht kürzlich die Meldung von einem Tornado in Köln am Rhein? Tatsächlich sind solche Einzelereignisse und ihre subjektiv unterschiedlichen Einschätzungen und Einbildungen wissenschaftlich irrelevant. Der sich abzeichnende Klimawandel von Südamerika über Europa bis Asien verbirgt sich hinter gigantischen Mengen von Messdaten, die in Computern verarbeitet und zu Klimamodellen aufbereitet werden: Der Klimawandel wird verlässlich nur in der Digitalisierung und Virtualisierung unserer Computer sichtbar.


Digitalisierung und Virtualisierung der Natur

Digitalisierung meint die Zerlegung von Daten und Signalen in Bits und Bytes, die alternativen Spannungszuständen von Schalteinheiten in einem Computer entsprechen und durch 0 und 1 bezeichnet werden. So entspricht jedes Symbol auf dem Keyboard eines Computers einer unterschiedlichen Sequenz der Ziffern 0 und 1. Ein Computer ist also eigentlich nur ein Kasten mit unglaublich vielen Schaltern, in denen nach bestimmten Programmen die Bits 0 und 1 blitzschnell verändert werden. Sie kodieren die Dokumente, Bilder, Filme und Melodien, die uns mittlerweile jedes kleine Taschengerät liefert. Virtuelle Realität ist eine durch Digitalisierung erzeugte künstliche Realität im Computer. Wer von uns vermag noch in einem Spielfilm zu unterscheiden, welche Abschnitte wirkliche Naturprozesse abbilden und wo mit täuschender Eindringlichkeit romantische Sonnenuntergänge oder verheerende Naturkatastrophen nur virtuell erzeugt wurden?

Was für Alltag und Unterhaltung gilt, trifft erst recht in der Wissenschaft zu: Unser Bild der Natur entsteht heute im Computer! Kosmologen erhalten Bilder aus dem frühen Urstadium des Universums, indem schwache Lichtsignale durch empfindliche Raumsonden registriert und durch Computer in farbigen Pixelbildern aufbereitet werden. Im Mikrokosmos entschlüsseln Elementarteilchenphysiker die kleinsten Bausteine der Natur mit Supercomputern, die in Rechennetzen zusammengeschaltet werden. Das World Wide Web war eine Erfindung in CERN, dem europäischen Hochenergieforschungszentrum in Genf, um die Rechenkapazität durch verbundene Rechner zu steigern.

Unser Bild der Natur hing immer schon von den uns jeweils zur Verfügung stehenden Beobachtungsmethoden ab. Ausgestattet hat uns die Natur zunächst nur mit unseren Sinnesorganen. Aber auch Sinnesorgane sind bereits Beobachtungsinstrumente, die uns Menschen andere Perspektiven der Natur liefern als Fröschen und Pferden. Bis ins Hochmittelalter war Naturbeobachtung nur mit unseren Sinnesorganen begründet. In der neuzeitlichen Wissenschaft kamen Fernrohre, Teleskope und Mikroskope hinzu. Heute hängt die Genauigkeit und Auflösung ihrer Bilder von der Rechenkapazität der Computer ab.


Von Alexander von Humboldt zu Craig Venter?

Im Unterschied zu Astronomie, Physik und Chemie blieb die Biologie bis ins 20. Jahrhundert eine qualitativ beschreibende Wissenschaft, die auf Beobachtung mit Auge und bestenfalls Mikroskop beruhte. Alexander von Humboldt ist ein glänzendes Beispiel dieses klassischen Typs von Naturforscher Anfang des 19. Jahrhunderts. Wer vermag sich dem ästhetischen Reiz seiner Bilder und Texte zu entziehen? Die Einheit der Natur wird unmittelbar anschaulich. Ende des 19. Jahrhunderts will Therese von Bayern auf ihrer Brasilienreise dem universalwissenschaftlichen Ziel Humboldts folgend „möglichst viel botanische, zoologische, anthropologische und ethnographische Gegenstände für die bayerischen Staatsmuseen“ sammeln. Naturforschung im Sinne Humboldts ist universal, sachkundig und schön.

Welch ein Unterschied zur heutigen biologischen Forschung, in der museale Interessen nur noch randständig sind und milliardenschwere Forschungsprogramme von Staat und Industrie gefördert werden. Durch Molekularbiologie und Biotechnologie verschiebt sich das Naturbild massiv. In den vergangenen drei Jahrzehnten haben die Biowissenschaften große Erfolge bei der Identifizierung und Analyse einzelner Bestandteile biologischer Systeme erzielt. Über Organe, Gewebe, Zellen, Zellteile bis zu Molekülen wurde eine enorme Informationsfülle bereitgestellt, die ihren vorläufigen Höhepunkt in der Entschlüsselung des menschlichen Genoms und der Veröffentlichung dieser Ergebnisse am 15. Februar 2001 durch Craig Venter fand. Wie krass die unterschiedliche Naturperspektive ist, zeigt sich in so verschiedenen Persönlichkeiten wie der im Humboldtschen Geist kultivierten Therese von Bayern und dem erfolgsorientierten amerikanischen Unternehmer und Forscher Craig Venter, dem mit einer eigenen Firma und einem neuartigen Forschungsmanagement der Durchbruch gelang. Auch ein parallel laufendes öffentliches und internationales Humansequenzierungskonsortium war ein Beispiel für Großforschung. Forschungsgruppen aus vielen Ländern haben zum Erfolg dieses Mammutprojekts der Biologie beigetragen.

Voraussetzung für die Entschlüsselung der Bausteine des Lebens war die Verfügbarkeit von automatischen DNA-Sequenzierungsgeräten. Erste Geräte wurden für diese Zwecke vor 15 Jahren vorgestellt. Mittlerweile sequenzieren Höchstleistungsmaschinen rund 500 000 Basenpaare pro Tag. Die mit diesen Sequenzierungsapparaten ausgestatteten internationalen Genomforschungszentren des Genomsequenzierungskonsortiums erreichen so eine Sequenzierungskapazität von 172 Millionen Basen pro Tag oder 2 000 Basen pro Sekunde.


Vom Reduktionismus zum Holismus der Naturforschung

Allen diesen Ansätzen ist eine reduktionistische Erforschung der Natur gemeinsam: Das biologische Gesamtsystem wird in feinere Detailsysteme zerlegt, deren Einzelbestandteile dann möglichst genau beschrieben werden. Damit entsteht eine enorme Datenflut über einzelne Komponenten wie z.B. Funktionen einer Zelle oder eines ganzen Organismus. Die Komplexität dieser Datenfülle ist eine große Herausforderung für die Systemforschung, die sich mit den Zusammenhängen des Ganzen einer Zelle oder eines Organismus beschäftigt. Riesige Genkarten, Datenbanken für Proteine und Netzwerke für Stoffwechselprozesse werden notwendig. Daher zeichnet sich ein Paradigmenwechsel der Forschung vom Reduktionismus zur ganzheitlichen Sicht der Systeme ab. Zum Verständnis komplexer Systemeigenschaften wie Regulation, Kontrolle, Steuerung, Adaption, Robustheit und Evolution reicht die genaue Kenntnis der molekularen Bausteine nicht aus. Vielmehr ist es erforderlich, Wechselwirkungen und ihre Dynamik zwischen einzelnen Komponenten des Systems sowie zwischen verschiedenen Komplexitätsebenen der Moleküle, Proteine, Zellen und Organe zu erfassen. Das bedeutet, dass der bisher vorherrschende reduktionistische Ansatz durch eine ganzheitliche und integrative Erforschung der Natur ersetzt werden muss.

Dieser Paradigmenwechsel gelingt nur dann, wenn die Disziplinen Biologie, Mathematik, Informatik und Systemwissenschaft interdisziplinär zusammenwirken. Dazu zeichnet sich eine enge Wechselwirkung zwischen der experimentellen Datengewinnung und der computergestützten Modellbildung und Simulation ab. Um die komplexen Stoffwechselprozesse einer einzelnen Zelle in einem mathematischen Modell zu erfassen, bedarf es unter Umständen hunderter von Gleichungen. Die Bioinformatik integriert die verschiedenen biologischen Daten, speichert sie in Datenbanken und stellt sie den Modellen zur Verfügung. Eine weitere zentrale Aufgabe ist die Entwicklung benutzerfreundlicher Software, die sowohl von Biologen als auch Systemwissenschaftlern bedient und verstanden werden kann. Schließlich müssen die komplexen Zusammenhänge und Simulationsergebnisse in verständlicher Weise visualisiert werden. Am Ende stehen die Fernziele der Virtualisierung der Natur mit „gläsernen“ Zellen, Organen und Organismen.

Im Vergleich zur DNA-Sequenzierung sind allerdings die Methoden für funktionale Systemerfassung heute noch nicht so weit entwickelt. Während die DNA-Technologie im industriellen Produktionsstadium angekommen ist, bedarf der nächste Schritt der Proteinanalyse noch erheblicher Weiterentwicklung. Elektrotechnische Netzwerke erscheinen geradezu simpel gegenüber dem Stoffwechselnetzwerk einer einzelnen Leberzelle. Das Organ der Leber ist eine hochkomplizierte biochemische Fabrik, die täglich über 10 000 Substanzen auf-, um- oder abbaut und den Körper mit den lebenswichtigen Stoffen wie Proteinen, Kohlenhydraten und Fetten versorgt. Die Leber ist als Modellsystem für ganzheitliche systembiologische Untersuchungen sehr gut geeignet, da dieser Zelltyp vielfältige Aufgaben wahrnimmt und damit zahlreiche Anwendungsmöglichkeiten für die Medizin, Pharmaforschung und den Bereich Ernährung bietet.

Wir ahnen allmählich, warum die Simulation ganzer lebender Systeme im Computer so zukunftsträchtig und wichtig ist. Die Modellierung komplexen Netzwerkverhaltens erlaubt es, Angriffspunkte für therapeutische Interventionen zu identifizieren und geeignete Wirkstoffe zu entwickeln. Virtuelle Modelle leisten aber nicht nur einen wesentlichen Beitrag zum Verständnis lebender Systeme und zur Therapie bei Krankheiten. Auch unter wirtschaftlichen Aspekten ist die Modellierung und Simulation biologischer Prozesse von großem Interesse. Experimente, die zunächst in silico (d.h. „im Silikon“ von Computerchips, also als Software) mit virtuellen Zellen erprobt werden, versprechen Zeit- und Kostenreduzierung bei der Medikamentenentwicklung. Nicht zu vergessen ist die Verminderung der Zahl der Tierversuche.


Natur in silico, in vitro und in vivo

Methodisch unterscheiden wir eine in silico-, in vitro- und in vivo-Perspektive der Natur. Am lebenden biologischen Organismus werden in vivo Beobachtungs- und Messdaten gewonnen. Aus diesen Daten über biologische Systeme sowie aus dem Wissen über Funktionen und Zusammenhänge ihrer Bestandteile wird ein mathematisches Modell entwickelt. Aus diesem Modell können Hypothesen über Systemeigenschaften und Systemverhalten abgeleitet und vorausgesagt werden. Diese Hypothesen lassen sich nun parallel in silico und in vitro überprüfen. In silico wird mit dem mathematischen Modell eine Simulation im Computer durchgeführt, die neue Daten liefert und damit eine Überprüfung der Hypothese erlaubt. In vitro („im Reagenzglas“) werden entsprechende Experimente im Labor durchgeführt, die neue biologische Daten erzeugen, mit denen wiederum die Hypothesen überprüft werden können.

In silico-, in vitro- und in vivo-Perspektive der Natur ergänzen sich also in den Naturwissenschaften. Wenn wir etwa die großen ökologischen Systeme Südamerikas begreifen wollen, denen Humboldt und Therese von Bayern auf der Spur waren, dann bedarf es heute der Unterstützung komplexer Computermodelle. Die Empfindlichkeit der Pflanzen- und Tierwelt, die im Zeitalter der Globalisierung ebenso von Pandemien bedroht sind wie der Mensch, muss in einem integrierten Ansatz von der molekularen und genetischen über die zelluläre bis zur organischen und ökologischen Ebene untersucht werden. Wer einen Gegensatz zwischen der (angeblichen) Naturromantik des 19. Jahrhunderts und der (angeblichen) „kalten“ Berechenbarkeit im Computerzeitalter aufbaut, geht an der Wirklichkeit und ihren Erfordernissen vorbei. Der ganzheitlichen Sicht Humboldts entspricht heute eine ganzheitliche und integrierte Sicht der Natur auf systembiologischer Grundlage. Allerdings ist heute Systembiologie Teil mathematischer und computergestützter Naturforschung wie früher nur die Physik.

Es bleibt der ästhetische Aspekt der Humboldtschen Naturforschung. Verliert Natur durch Digitalisierung und Virtualisierung ihren Reiz? Wird sie als „gläserne“ Natur entzaubert? Unsere Hochglanzbilder der Natur sind heute typische Produkte im Medien- und Computerzeitalter. Hat es je solche Bilder des Kosmos, des Urwalds am Amazonas, von Panthern und Menschenaffen, aber auch von Bakterien, Proteinen, Molekülen und Atomen gegeben? Im Unterschied zu den dezenten Naturzeichnungen und ersten Fotographien des 19. Jahrhunderts wirkt die Raffinesse unserer computererzeugten Bilder der Natur heute gelegentlich aufreizend und überwältigend. Selbst Wissenschaftsjournalisten sprechen von „geilen“ Bildern der Astronomie und Biologie, um die Aufmerksamkeit eines durch Überflutung mit Medienreizen abgestumpften Publikums zu erlangen. Vorlesungen, Vorträge, Wissenschafts- und Kulturfilme sind heute mit einem nie gekannten didaktischen Aufwand aufbereitet – Dank der Möglichkeit computergestützter Medien.

Unser jeweiliges Bild der Natur entsteht allerdings bei uns im Kopf und ist ein Produkt unseres Gehirns – bei uns ebenso wie bei Humboldt. Wie wir Natur erleben, hängt ab von unserem Vorwissen, unserer Sensibilisierung, Kultivierung und Sozialisierung. Was läuft dabei im Gehirn ab? Ist es letztlich nicht auch nur ein Computer auf neurochemischer Grundlage? Längst sind wir in der Neuroinformatik dabei, auch die Netzwerke unserer Gehirne zu simulieren. Steht am Ende der „gläserne“ Mensch? Tatsächlich lässt sich die Rechenkapazität des Gehirns wie folgt abschätzen: Wenn wir von ca. 1011 Neuronen (Nervenzellen) pro Gehirn mit im Durchschnitt 103 synaptischen Verbindungen pro Neuron ausgehen, sind wir bei 1014 synaptischen Verbindungen im Gehirn. Leider ist das Gehirn mit 200 Schalttakten pro Sekunde relativ langsam. Jedenfalls erhalten wir dann etwa 2x1016 Schalttakten für das gesamte Gehirn als Rechenkapazität, um elementare Rechenschritte auszuführen. Nun kommt das Mooresche Gesetz ins Spiel, nach dem sich die Rechenkapazität unserer Computer bisher alle 12 bis 18 Monate verdoppelt hat. Je nachdem wie man dieses Wachstumsgesetz ansetzt, könnte die Rechenkapazität des Gehirns bereits in den zwanziger Jahren von einem normalen Laptop überholt werden. Aber man darf nicht vergessen, dass im menschlichen Gehirn nicht alles Rechenleistung ist. Unsere Gefühls- und Vorstellungswelt wird zwar durch die menschliche Gehirntätigkeit möglich. Das in einem Computer umzusetzen, ist aber noch einmal ein Quantensprung.


Naturerlebnis in silico?

Emotionen in silico? „Gläserne“ Natur und „gläsernes“ Gehirn? Kürzlich saß ich mit den Fellows des Institute of Advanced Study der Technischen Universität München nach einer Tagung in einem Restaurant am Starnberger See. Unter uns saß ein Nobelpreisträger der Physik, der plötzlich fasziniert nach draußen auf den Horizont zeigte: „Schauen Sie sich diesen Himmel an!“ Über dem See ging die Sonne unter. Die Wolkendecke war dramatisch aufgerissen und Natur und See leuchteten in einer Weise, wie sie für diese Landschaft und Jahreszeit typisch ist. Dem Physikkollegen gegenüber saß ein Gehirnforscher und Nobelpreisträger der Medizin, der lebhaft diese Eindrücke bestätigte. Dem Physiker wäre es ein leichtes gewesen, alle Vorgänge der Sonne, des Lichtes und der Atmosphäre bis auf die Ebene der Elementarteilchen zu erklären. Der Mediziner und Gehirnforscher hätte im Detail erklären können, was sich im Kopf seines Physikkollegen neurochemisch bei seinen Eindrücken und Emotionen abspielt. Dennoch bleiben die Faszination und das Erlebnis der Natur. Humboldts Geist wirkt also weiter. Therese von Bayern, seit kurzem in die Walhalla der Unsterblichen aufgenommen, hätte unserer Runde am Starnberger See sicher beigepflichtet.
Klaus Mainzer
hat einen Lehrstuhl für Philosophie und Wissenschaftstheorie und ist Direktor der Carl von Linde-Akademie an der Technischen Universität München (TUM). Er ist Mitglied des Advisory Board des Institute for Advanced Study an der TUM sowie Mitglied der Academia Europaea (London). Zu seinen Büchern aus jüngster Zeit zählen „Computerphilosophie“ (2005), „Zeit. Von der Urzeit zur Computerzeit“ (5. Aufl. 2005), „Thinking in Complexity“ (5.Aufl. 2007), „Der kreative Zufall“ (2007) und „Komplexität“ (2008).

Copyright: Goethe-Institut e. V., Humboldt Redaktion
November 2009
Links zum Thema