Achtundzwanzig telefonzellengroße Kästen in Schwarz stehen in einer riesigen, voll klimatisierten Halle auf dem Gelände des Forschungszentrums Jülich zwischen Köln und Aachen. Äußerlich recht unscheinbar, bergen diese Schränke indes Computertechnik vom Feinsten.
Gemeinsam sind sie Deutschlands leistungsfähigster Supercomputer, den die Wissenschaftler auf den Namen „Juqueen“ getauft haben, was so viel bedeuten soll wie „Jülicher Königin.“
Der Juqueen ist der einzige Supercomputer Deutschlands, der es in die Top-10-Weltliste schafft. Den ersten Platz im globalen Leistungsvergleich belegen schon seit drei Jahren chinesische Computer.
Die derzeit weltbeste Rechenmaschine ist wesentlich leistungsfähiger als die amerikanischen Rechner, die auf Platz zwei und drei liegen. Kein gutes Signal für die westliche Welt. Denn die Top-10-Listen sind ein Indikator, wo Forschung mit Big Data am intensivsten betrieben wird.
Im aktuellen Ranking gebührt dem „Tianhe-2“ in Guangzhou der Superlativ des leistungsfähigsten Computers der Welt. Tianhe heißt übersetzt Milchstraße. Das zeugt von einem gehörigen Selbstbewusstsein der Chinesen.
In jeder Sekunde 34 Billiarden Rechenoperationen
Tatsächlich ist die Rechenleistung von Tianhe mit 33,86 Petaflops gigantisch. Diese Zahl bedeutet, dass der Computer in jeder Sekunde rund 34 Billiarden Rechenoperationen durchführen kann. Und eine Billiarde ist eine Zahl mit 15 Nullen – also Millionen Milliarden.
Wozu benötigen die Forscher an der National University of Defense Technology (NUDT) in Guangzhou diese unvorstellbare Rechenleistung, die auf rund 760 Quadratmeter, der Fläche von drei Tennisfeldern, untergebracht ist? Das ist geheim. Doch es liegt nahe, dass die „Milchstraße“ sich in erster Linie mit militärischen Fragestellungen auseinandersetzt.
Die Jülicher Computer-Königin nimmt sich im Vergleich zu Tianhe-2 schon recht bescheiden aus. Sie schafft fünf Petaflops – also nur rund ein Siebtel der chinesischen Rechenkraft.
Diese Leistung könnte man auch erreichen, indem man 100.000 modernste PCs zusammenschaltet. Das reicht immerhin für den achten Platz in der Weltrangliste, die in dieser Woche auf der International Supercomputing Conference in Leipzig präsentiert worden ist.
Mit deutlichem Abstand zum Weltrekordhalter belegen Supercomputer in den USA die Plätze zwei und drei. „Titan“ und „Sequoia“ arbeiten am Oak Ridge National Laboratory mit je 17,50 Petaflops und werden vom US-Energieministerium genutzt.
Unter den Top 10 dominieren noch immer die USA, das Mutterland der Supercomputer. Hier konstruierte Seymour Cray im Jahr 1964 jenen Rechner, der gemeinhin als der erste Supercomputer der Welt gilt – der CDC-6600. Diese Maschine konnte 500.000 Rechenoperationen pro Sekunde bewältigen. Ein aus heutiger Sicht lächerlich kleiner Wert.
China verfügt allein über 76 Supercomputer
Ein Vierteljahrhundert dominierten Cray-Computer das Supercomputing. In den 1990er-Jahren stürmten japanische Großrechner die Rankings, gebaut von NEC, Fujitsu oder Hitachi. Im neuen Jahrtausend sorgte insbesondere der „Blue Gen“ von IBM für Schlagzeilen.
Dann holte China rasant auf. Unter den 500 leistungsstärksten Rechnern der Welt stehen bereits 76 Supercomputer in China. Allerdings kommt auch Tianhe-2 nicht ohne westliche Technik aus. Er verwendet Prozessoren der US-Firma Intel und basiert auf dem Betriebssystem Linux.
Europa ist neben dem „Juqueen“ mit seinen exakt 458.752 Prozessorkernen nur noch mit dem „Piz Daint“ des Swiss National Supercomputing Centre in Lugano unter den Top 10 vertreten. Mit einer Rechenleistung von 6,27 Petaflops belegt der nach einem Berggipfel benannte Computer derzeit Platz sechs. Deutschland ist mit 23 Großrechnern unter den Top 500 vertreten.
Was treibt das technologische Wettrüsten bei den Supercomputern an? Früher standen militärische Anwendungen im Vordergrund. So lassen sich etwa Atomwaffentests im Computer simulieren, ohne sie durchführen zu müssen. Doch inzwischen stehen immer stärker Fragestellungen in Wissenschaft und Technik im Vordergrund, für deren Beantwortung enorme Rechenleistungen benötigt werden.
Professor Thomas Lippert, Direktor des Institutes for Advanced Simulation und Leiter des Jülicher Supercomputing Zentrums, erklärt: „Wir setzen Juqueen im Bereich der Materialwissenschaften und in der Biologie ein, zum Beispiel um die Prozesse in einer Zelle vollständig zu simulieren. Ein zunehmend wichtiges Gebiet ist die Analyse von Gehirnstrukturen. Noch aufwendiger ist die Simulation des menschlichen Gehirns, die wir im Rahmen des Human Brain Projects vornehmen. Dieses europäische Großprojekt zielt auf die Simulation des gesamten menschlichen Gehirns.“
Forscher ergründen, was Intelligenz ist
Für dieses Projekt hat die Europäische Union rund eine Milliarde Euro bereitgestellt. Letztlich geht es darum, durch Simulation von Genen, Molekülen und Zellen das menschliche Denken nachzuempfinden. Die Wissenschaftler hoffen, damit eines Tages die Frage beantworten zu können, was Intelligenz ist.
An einem im Computer nachgebildeten Gehirnmodell könnten überdies neue Medikamente erprobt und das Entstehen von Krankheiten wie Alzheimer und Parkinson besser verstanden werden.
Geleitet wird das ambitionierte Projekt von dem Neuroforscher Henry Markram von der ETH Lausanne, und die Jülicher Forscher haben das Supercomputing übernommen. Schrittweise gehen sie das Ziel an. Das menschliche Gehirn besteht aus mehreren Hundert Milliarden Nervenzellen.
Den neuronalen Kosmos in seiner Gesamtheit vollständig nachzubilden, dafür würde die zusammengenommene Rechenleistung aller Supercomputer nicht ausreichen. Das Hirnmodell konzentriert sich deshalb auf eine ausschnitthafte Wiedergabe neuronaler Vorgänge.
Zunächst werden nur einzelne Nervenzellen auf Großrechner simuliert, erläutert Lippert. Das erfordere wenige Prozessorkerne. Der Rechner ist damit stunden- bis tageweise beschäftigt. Voller Einsatz ist von Juqueen erst gefordert, wenn das Zusammenspiel sehr vieler Neurone parallel simuliert wird.
So viel Strom wie eine Kleinstadt
Damit der Supercomputer dann nicht ins Schwitzen gerät, verfügt er über eine sehr effiziente Kühlung, bei der Wasser die Wärme direkt von den Prozessoren ableitet. Tianhe-2 verbraucht gar so viel Strom wie eine Kleinstadt.
Der Jülicher Supercomputer steht auch Forschern anderer Fachgebiete zur Verfügung, darunter Klima- und Energieforscher sowie Quantenphysiker. Über die Kosten der Königin sprechen die Jülicher nicht gern.
Nur so viel: „Juqueen wurde zu gleichen Teilen aus Bundes- und Landesmitteln finanziert und wird vom Forschungszentrum Jülich im Forschungsprogramm Supercomputing der Helmholtz-Gemeinschaft betrieben.“
Das staatlich geführte Oak Ridge National Laboratory in den USA zeigt sich da offenherziger. Es gibt den Preis für „Titan“ mit rund 97 Millionen Dollar an. Das sind umgerechnet gut 71 Millionen Euro.
Allerdings setzt sich der Supercomputer zum Teil aus wiederverwendeten Komponenten des Vorgängermodells zusammen. Auf dem Höchstleistungsrechner, den auch der US-Geheimdienst NSA zur Analyse von Daten nutzt, haben deutsche Wissenschaftler vom Helmholtz-Zentrum Dresden-Rossendorf vor Kurzem jene turbulenten Prozesse simuliert, wie sie sich am Rande von Schwarzen Löchern abspielen.
Dabei ging es den Forschern um ein besseres Verständnis jener Vorgänge, die beim Strömen von extrem heißem Gas auftreten. Solche energiereichen Plasmajets werden etwa von Neutronensternen und Schwarzen Löchern erzeugt.
„Dazu war eine Simulation auf die Ebene von Elementarteilchen nötig“, erklärt Gruppenleiter Michael Bussmann, „wir haben einen Plasmajet mit einer so hohen Auflösung simuliert, dass wir den Elektronen im Jet folgen konnten. Das allein benötigte eine enorme Rechenkraft, da wir fast hundert Milliarden Teilchen zugleich simulieren mussten.“