Digitale Rechenleistung Die Zukunft der Digitalisierung: Quantenrechner und neuromorphes Computing

Sind Supercomputer eine Lösung für mehr Rechenleistung? Der aktuell schnellste Superrechner Europas, JUWELS, am Forschungszentrum Jülich.
Sind Supercomputer eine Lösung für mehr Rechenleistung? Der aktuell schnellste Superrechner Europas, JUWELS, am Forschungszentrum Jülich. | Foto (Detail): © Forschungszentrum Jülich / Sascha Kreklau

Ob für automatische Spracherkennung, selbstfahrende Autos oder medizinische Forschung: Unser Bedarf an Rechenleistung steigt stetig. Die Möglichkeiten zu weiteren Leistungssteigerungen bei Mikrochips sinken jedoch. Wie geht es weiter?
 

Von Eva-Maria Verfürth

Mehr als 50 Jahre ist es her, dass der Ingenieur Gordon Moore, später Mitbegründer des Halbleiterherstellers Intel, prophezeite: Ab nun würde sich die Kapazität unserer digitalen Geräte alle zwei Jahre verdoppeln. Denn in einem Zyklus von zwei Jahren war es technisch möglich, die Anzahl der Transistoren auf einem Siliziumchip zu verdoppeln. Das hieß: doppelte Rechenleistung bei gleichem Platzverbrauch und nur geringfügig höheren Kosten. In den folgenden Jahrzehnten haben Tech-Unternehmen die Rechenleistung von Siliziumchips tatsächlich regelmäßig verdoppeln können und so für rasanten technologischen Fortschritt gesorgt. Doch wird das auch so weitergehen? Die Supercomputing-Expertin Estela Suarez erklärt, wieso das Mooresche Gesetz zwar nicht auf ewig gelten, die Entwicklung aber dennoch vorangehen wird – und wieso das wichtig ist, etwa für den Fortschritt in der Medizin, im Verkehr oder für Klimavorhersagen.

Prof. Dr. Estela Suarez Prof. Dr. Estela Suarez | Foto (Detail): © Forschungszentrum Jülich / Ralf-Uwe Limbach Frau Suarez, seit 1965 war der technische Fortschritt nach dem sogenannten „Mooreschen Gesetz“ eine sichere Konstante. Aber nun heißt es, das Prinzip werde an seine Grenzen stoßen. Woran liegt das?

Grund dafür sind physikalische Grenzen: Man kann die Strukturen im Chip, zum Beispiel die Schaltkreise, nicht unendlich verkleinern. Irgendwann kommen wir auf die Größe eines Atoms – und spätestens dann ist es vorbei.

Würde ein Ende der Mikrochip-Optimierung denn auch ein Ende der Leistungssteigerung bedeuten?

Ein Ende der Miniaturisierung bedeutet zunächst einmal, dass es eine Möglichkeit weniger gibt, die Leistung zu steigern. Wir müssen also andere Strategien anwenden. Es gibt noch andere Optimierungsmethoden, die zu einer höheren Rechenleistung führen und nicht direkt mit der Größe der Strukturen auf dem Mikrochip zusammenhängen. Viele Anwendungen leiden zum Beispiel darunter, dass sie die Daten nicht schnell genug vom Speicher zum Prozessor bringen können. Sie müssen also ständig auf Daten warten, bevor sie weiterrechnen. Hierfür werden neue Speichertechnologien entwickelt, die mehr Bandbreite bieten, sodass schneller auf die Daten zugegriffen werden kann. Dies erhöht die Rechenleistung, da mehr Operationen in der gleichen Zeit durchgeführt werden können. Doch auch solche Strategien stoßen irgendwann an ihre Grenzen. Deshalb sind Forschende und Technologieunternehmen immer auch auf der Suche nach völlig neuen Ansätzen, um zukünftige Computer immer leistungsfähiger zu machen.

Weshalb ist eine weitere Steigerung der Rechenleistung wichtig – können Sie Beispiele für Anwendungen oder Technologien nennen, die nur entwickelt und eingesetzt werden können, wenn die Rechenleistung weiter steigt?

Superrechner werden unter anderem eingesetzt, um Klimaveränderungen über Jahre hinweg präzise vorherzusagen. Superrechner werden unter anderem eingesetzt, um Klimaveränderungen über Jahre hinweg präzise vorherzusagen. | Foto (Detail): © Forschungszentrum Jülich, EZMW / Herwig Zilken, Olaf Stein In der Wissenschaft will man immer komplexere Phänomene mit Computern analysieren, um korrekte Schlussfolgerungen zu ziehen. Diese Phänomene müssen mit immer höherer Genauigkeit simuliert werden, und damit steigen auch die Anforderungen an die Rechenleistung. Ein Beispiel sind Wetter- und Klimamodelle. Diese werden aus sehr unterschiedlichen Datenquellen gespeist und berücksichtigen viele miteinander verknüpfte Aspekte: von der Chemie in der Atmosphäre über die Dynamik der Ozeane bis hin zu den geografischen Gegebenheiten und der Vegetation in den verschiedensten Regionen der Erdoberfläche. All diese und noch mehr unterschiedliche, aber miteinander verknüpfte Aspekte müssen simuliert werden, um Veränderungen der Klimabedingungen über Jahre hinweg präzise vorhersagen zu können. Die Berechnungen erfordern heute Wochen bis Monate an Rechenzeit, selbst auf den leistungsstärksten Computern. Konkret bedeutet das: Eine höhere Rechenleistung ermöglicht noch genauere Vorhersagen, die dazu beitragen, Wetterkatastrophen zu verhindern und gezieltere Maßnahmen gegen den Klimawandel zu treffen.

Für welche weiteren Bereiche gilt das noch?

Die Simulation eines ganzen menschlichen Gehirns ist mit heutigen Computern noch nicht möglich, könnte aber helfen, das Verständnis neurologischer Krankheiten entscheidend zu verbessern. Die Simulation eines ganzen menschlichen Gehirns ist mit heutigen Computern noch nicht möglich, könnte aber helfen, das Verständnis neurologischer Krankheiten entscheidend zu verbessern. | Foto (Detail): © Forschungszentrum Jülich / Markus Axer In anderen Forschungsbereichen und der Industrie gibt es ähnliche Situationen, beispielsweise in der Medizin: Die Simulation eines gesamten menschlichen Gehirns ist mit heutigen Computern noch nicht möglich, könnte aber helfen, das Verständnis neurologischer Krankheiten entscheidend zu verbessern. Für die Entwicklung von Arzneimitteln ist ebenfalls eine hohe Rechenleistung erforderlich, um die richtige Zusammensetzung von Wirkstoffen schneller zu bestimmen. Supercomputer werden außerdem zur Erforschung neuer Materialien eingesetzt, die für die Herstellung umweltfreundlicherer Produkte benötigt werden. Auch die Entwicklung von Sprachmodellen erfordert eine immer höhere Rechenleistung. Diese kommen in unserem Alltag schon an vielen Stellen zum Einsatz, etwa im Mobiltelefon, in Autos oder Smart-TVs.

Am Forschungszentrum Jülich beschäftigen Sie sich mit Quantentechnologie, die für bestimmte Berechnungen eine höhere Rechengeschwindigkeit bieten soll. Welche Möglichkeiten kann sie eröffnen?

Dieser Ansatz wird weltweit intensiv verfolgt. Nicht nur Forschungseinrichtungen, auch große IT-Unternehmen wie Google, mit denen wir kooperieren, beschäftigen sich damit. Quantencomputer können bestimmte Probleme viel schneller lösen als Standardcomputer, da sie Berechnungen auf eine völlig andere Weise durchführen. Sie nutzen Eigenschaften der Quantenphysik, die eine kompaktere Datenspeicherung und eine viel schnellere Ausführung bestimmter Operationen ermöglichen. Quantencomputer sind nicht unbedingt für jeden Zweck besser geeignet als „normale“ digitale Computer. Aber sie sind äußerst effizient, insbesondere bei Optimierungsproblemen, etwa bei der Suche nach dem Minimum in einem mehrdimensionalen Parameterfeld. Ein praktisches Beispiel für ein solches Problem ist die Navigation: Wenn Sie in Ihrem GPS-System ein Ziel angeben, berechnet der Computer in Ihrem Gerät die beste Route unter Berücksichtigung der Entfernung, der zulässigen Geschwindigkeit, der aktuellen Verkehrslage und weiterer Faktoren. Dies ist ein typisches Optimierungsproblem, das auf einem Quantencomputer viel schneller ablaufen kann als auf einem normalen Computer. Für die einzelne Reise einer Person, die in den Urlaub fährt, lohnt sich der Einsatz eines Quantencomputers sicher nicht. Aber stellen Sie sich eine Zukunft vor, in der Millionen von Autos im Autopilot-Modus aufeinander abgestimmt ihren Weg durch die Straßen in Deutschland finden müssen, um alle Fahrgäste so schnell wie möglich an ihr Ziel zu bringen. Dafür wäre eine riesige Rechenleistung erforderlich, die vermutlich nur mit Quantencomputern darstellbar sein wird.

Nun ist bis heute kein einziger Quantencomputer außerhalb der Forschung im Einsatz. Wie weit sind wir noch davon entfernt, dass die Quantentechnologie tatsächlich nutzbar wird?

Die Quantentechnologie befindet sich heute etwa auf dem gleichen Stand wie normale Computer in den 1940er-Jahren. Es gibt Prototypsysteme, die vielversprechende Ergebnisse gezeigt haben, aber man kämpft zum Beispiel immer noch mit Unzuverlässigkeit und Berechnungsfehlern. Auch die Softwareumgebung steckt noch in den Kinderschuhen. Viele der praktischen Werkzeuge, an die wir uns bei normalen Computern längst gewöhnt haben, zum Beispiel hoch optimierte Compiler-Software, maßgeschneiderte Bibliotheken oder Debugger, sind für Quantencomputer noch nicht verfügbar. Auch bei den Algorithmen gibt es noch großen Entwicklungsbedarf.
Mobilität der Zukunft? Autonomes Fahren verbraucht enorm viel Rechenleistung. Mobilität der Zukunft? Autonomes Fahren verbraucht enorm viel Rechenleistung. | Foto (Detail): © Adobe Welche anderen Wege oder Ideen gibt es, um eine Steigerung der Datenverarbeitung zu ermöglichen und wie weit sind sie in ihrer Entwicklung?

Eine weitere innovative Technologie ist das Neuromorphic Computing. Dahinter steht die Idee, einen Computer zu bauen, der die Arbeitsweise des Gehirns nachahmt. Unser Gehirn ist nicht sehr schnell bei der Berechnung mathematischer Operationen, aber dank seiner massiven Vernetzung zwischen den Neuronen ist es extrem effizient beim Lernen und bei der Identifikation von Verbindungen zwischen unterschiedlichen Beobachtungen. Für Aufgaben wie die Mustererkennung oder das Erlernen einer Sprache benötigt unser Gehirn erheblich weniger Energie als ein klassischer Computer. Neuromorphe Computer versuchen, diese Art von Fähigkeiten zu erreichen, um sie auf die Datenverarbeitung anzuwenden.

Wie sehen aktuell die Prognosen aus: Wie schnell entwickeln sich nach Ansicht von Expert*innen Technologien in den nächsten Jahren und Jahrzehnten weiter? Auf welche Annahmen stützen sie sich dabei?

Der aktuelle Trend geht in Richtung Vielfalt. Wir gehen davon aus, dass der Fortschritt nicht allein durch eine einzige technische Lösung getrieben und erreichbar sein wird. Diese Tendenz lässt sich seit einigen Jahren beispielsweise in der Entwicklung von Supercomputern beobachten. Superrechner kombinieren zunehmend verschiedene Rechen- und Speichertechnologien, um maximale Leistung bei maximaler Effizienz zu erreichen. Die Technologieentwicklung bei den einzelnen Komponenten verläuft dabei sehr dynamisch und es entstehen völlig neue Ansätze. Ein Ziel der Forschung auf diesem Gebiet ist es daher, die verschiedenen Komponenten effizient zusammenzuschalten. Wir am Jülich Supercomputing Centre entwickeln dafür eine modulare Supercomputing-Architektur, bei der wir uns damit beschäftigen, unterschiedliche Ansätze in Form von Modulen in Supercomputern zusammenzubringen. Wir streben dabei auch an, klassische Computer mit Quantencomputern zu verbinden. Der aktuell schnellste Superrechner Europas, JUWELS, am Forschungszentrum in Jülich. Der aktuell schnellste Superrechner Europas, JUWELS, am Forschungszentrum in Jülich. | Foto (Detail): © Forschungszentrum Jülich / Wilhelm-Peter Schneider