Das Deutsche Klimarechenzentrum (DKRZ) will einen neuen Hochleistungscomputer anschaffen. Doch ein passendes Modell ist schwer zu finden.

Hamburg. Es wäre das schönste Geburtstagsgeschenk, wenn sie ihn schon hätten, ihren neuen Supercomputer. Am Montag feiert das Deutsche Klimarechenzentrum (DKRZ) sein 25-jähriges Bestehen; knapp 300 Forscher und geladene Gäste werden die Geschichte der Hamburger Einrichtung Revue passieren lassen, die heute eine zentrale Rolle in der deutschen Klimaforschung spielt und die deutschen Simulationen für die Berichte des Weltklimarats liefert. Ob das DKRZ auch künftig so erfolgreich arbeiten wird, hängt maßgeblich von dem nächsten Hochleistungsrechner ab, den die Gesellschafter kaufen wollen. Das Gerät darf bis zu 30 Millionen Euro kosten.

Vordergründig sieht es nach einem Luxusproblem aus. Die erste Vorgabe lautet: Das neue Modell soll 20-mal schneller sein als der seit 2009 amtierende Blizzard. Dieser nach einem Schneesturm benannte Rechner schafft bis zu 158 Billionen Rechenschritte pro Sekunde (Teraflops). Die jüngsten Supercomputer hingegen schaffen mehrere Billiarden Rechenschritte (Petaflops); der vor Kurzem in Jülich eingeweihte Juqueen erreicht bis zu 5,9 Petaflops und ist damit Europas schnellster Rechner. Sollte es dem DKRZ da nicht leichtfallen, einen potenten Nachfolger für den Blizzard zu finden?

Tatsächlich gestaltet sich die Suche nach Hamburgs neuem Superhirn schwierig, denn es gibt eine zweite Vorgabe: Der Nachfolger soll nicht mehr Strom verbrauchen als der Blizzard. Dieser hat mit all seinen Komponenten eine elektrische Leistungsaufnahme von zwei Megawatt und genehmigt sich pro Jahr etwa 17 und 18 Millionen Kilowattstunden aus erneuerbaren Energien - so viel wie mehr als 3000 Zwei-Personen-Haushalte. Auch hier hat sich technisch viel getan: Der "Juqueen" in Jülich verbraucht etwa genauso viel und ist dennoch viel schneller, weil er mit Chips arbeitet, die mit 1,6 Gigahertz zwar recht langsam getaktet sind und so mit weniger Strom auskommen, die aber mehr Rechenkerne enthalten, die parallel arbeiten - 458.752 insgesamt. Der Blizzard rechnet mit 8500 Kernen.

Auf dem Prinzip der Parallelisierung von immer mehr Rechenkernen basieren immer mehr Geräte in der Spitzenliga der Supercomputer. Während viele Disziplinen, etwa Astrophysik und Bioinformatik, von der neuen Architektur profitieren, bereitet sie Klimaforschern Sorgen. "Die meisten unserer Anwendungen laufen bisher nur auf Rechnern mit bis zu 10.000 Rechenkernen vernünftig", sagt Prof. Thomas Ludwig, Geschäftsführer des DKRZ. Klimaforscher bräuchten deshalb Rechner, die mit relativ wenigen, aber schnellen Kernen arbeiteten. Um das zu verstehen, muss man sich klarmachen, wie Klimavorhersagen entstehen.

Die Grundlage der von Supercomputern wie Blizzard erstellten Prognosen sind Klimamodelle. Dabei handelt es sich um Programme, die mit diversen Daten gefüttert werden. Erstens mit Angaben über physikalische Zusammenhänge, die für das Klima eine Rolle spielen. Zweitens mit Klimadaten, die Forscher erhoben haben, also etwa mit Durchschnittswerten zu Niederschlägen, Luftdruck und Temperatur in einem Gebiet in einem bestimmten Zeitraum. Und drittens mit Schätzungen, wie sich der Ausstoß von Treibhausgasen verändern könnte, von Substanzen also, die zur Erderwärmung beitragen. All diese Faktoren werden als Gleichungen beschrieben, mit denen Supercomputer rechnen können. Ihre Simulationen fließen in Szenarien ein, etwa die Abschätzung, wie sich unter bestimmten Bedingungen in einem bestimmten Zeitraum die Erde erwärmen könnte.

Weil das Klima weltweit erheblich variiert und auch der Ausstoß von Treibhausgasen je nach Region anders ausfällt, unterteilen Klimaforscher die Atmosphäre und die Ozeane horizontal und vertikal in Untersuchungsgebiete, sogenannte Gitterboxen. Je kleiner die Boxen und damit die Maschen des globalen Netzes, desto mehr Details lassen sich untersuchen und desto genauer lässt sich die Entwicklung des regionalen Klimas simulieren. Allerdings: je kleiner die Boxen, desto mehr Rechenleistung ist auch nötig.

In der Bioinformatik, etwa bei Simulationen, wie sich Proteine falten, können Supercomputer viele Tausend Varianten der Faltung unabhängig voneinander parallel berechnen, weil Variante eins nicht zwangsläufig von Variante zwei abhängt. Anders in der Klimaforschung, wo der Faktor Zeit eine grundlegende Rolle spiele, erläutert Dr. Joachim Biercamp, der am DKRZ die Anwendungen des Blizzard betreut. "Um das Klima von übermorgen zu berechnen, müssen wir erst das von morgen berechnen. Die zeitlichen Schritte müssen also nacheinander folgen, sie lassen sich nicht parallelisieren."

Auf einer Zeitebene, etwa für den Zeitraum von einem Jahr, können zwar viele Rechenkerne parallel das Klima für mehrere Gitterboxen in einem bestimmten Gebiet berechnen, aber nicht unabhängig voneinander. Die Kerne müssen ständig Informationen austauschen, weil die Werte der Boxen voneinander abhängen. Würde ein Supercomputer eingesetzt, der über viele langsame Rechenkerne verfügt, dann würde sich jeder Kern um relativ wenige Gitterboxen kümmern und müsste zu deren Berechnung übermäßig häufig mit anderen Rechenkernen kommunizieren. "Deshalb versuchen wir prinzipiell, wenige schnelle Rechenkerne jeweils möglichst große Gebiete abbilden zu lassen, damit die Kerne möglichst wenig kommunizieren müssen", erläutert Thomas Ludwig. Höher getaktete Kerne verbrauchen aber mehr Strom.

Hinauslaufen werde es deshalb wohl auf einen Supercomputer, der nur etwa 15-mal schneller sei als der Blizzard. Infrage komme ein Gerät wie der SuperMuc des Leibniz-Rechenzentrums bei München: Dieser Computer verfügt über "nur" 155.656 Rechenkerne, die mit 2,3 bis 2,7 Gigahertz aber recht schnell getaktet sind. So schafft er bis zu drei Petaflops, arbeitet aber durch eine neuartige Wasserkühlung der Chips recht sparsam: Seine elektrische Anschlussleistung beträgt zwei bis drei Megawatt. Ein ähnliches Gerät suchen die Hamburger. Ende 2014 oder Anfang 2015 soll ihr neues Superhirn die Arbeit aufnehmen.