Hochleistungsrechner produzieren extrem viele Daten. Wie sich diese besser speichern lassen, diskutieren 2000 Experten in Hamburg

Hamburg. Schnelligkeit ist alles? Für Supercomputer gilt das künftig nicht mehr ohne Weiteres. Jahrzehntelang stellten die Rechenboliden immer neue Rekorde auf. Doch im Rausch der Geschwindigkeit dachte kaum jemand an die Folgen. "Je schneller Supercomputer geworden sind, desto mehr Daten haben sie auch produziert", sagt Prof. Thomas Ludwig, Direktor des Deutschen Klimarechenzentrums (DKRZ) in Hamburg. Inzwischen sei ein wahrer "Daten-Tsunami" entstanden.

Ludwig ist maßgeblich an der Organisation der 26. Internationalen Supercomputer-Konferenz (ISC) beteiligt, die bis Donnerstag im CCH stattfindet. Zwar hat, wie jedes Jahr, die neue Top-500-Weltrangliste für Aufsehen gesorgt, doch diskutieren werden die 2000 Experten vor allem, wie sie künftig den "Output" der Supercomputer bewältigen. "Wir müssen schnell neue Wege finden, die dramatisch anwachsenden Datenmengen zu speichern und zu bearbeiten", sagt Ludwig.

In den vergangenen 20 Jahren sind Rechner eine Million Mal schneller geworden, Festplatten bieten heute dagegen nur 1000-mal mehr Platz als damals. Durch den Geschwindigkeitszuwachs können heute schon Privatanwender mit einem handelsüblichen PC Bilder bearbeiten, Musik komponieren oder Filme schneiden. Supercomputer hingegen leisten weit mehr: Sie errechnen das Wetter der nächsten Tage, zeigen, wie sich Galaxien bilden könnten, sie simulieren Crashtests in der Autoindustrie und helfen bei der Entwicklung neuer Medikamente. Die Schnelligkeit der Rechner ist Segen und Fluch zugleich. Diese Erfahrung machen schon Privatanwender: Aus digitalen Urlaubsbildern lassen sich eindrucksvolle Diashows machen, doch wer die Bilder auf dem Computer nur ablegt und nicht sorgfältig kommentiert, hat nach drei Urlauben einen Haufen aus Zigtausend Aufnahmen vor sich, der die Suche nach einem bestimmten Bild zur Nervenprobe macht.

Bei Supercomputern bekommt dieses Problem eine ganz andere Dimension. Am DKRZ in Hamburg erstellt der Hochleistungsrechner "Blizzard" Simulationen zum Klima. Er berechnet auch den deutschen Beitrag für den Bericht des Weltklimarats IPCC. "Das Klima ist sozusagen die Statistik des Wetters in der Zukunft", sagt Thomas Ludwig. "Es geht also nicht um Einzelereignisse wie etwa Regen zu einer bestimmten Zeit an einem bestimmten Ort, sondern um durchschnittliche Niederschläge in einem Gebiet in einem bestimmten Zeitraum. Dafür müssen wir unsere Daten lange Zeit aufheben. Das, was der Rechner jetzt simuliert, dient als Grundlage für spätere Überprüfungen der Klimamodelle." Dabei häuft sich eine wahnwitzige Datenmenge an: Klimasimulationen produzieren am DKRZ jährlich zehn Petabyte an Informationen - das entspricht fünf Billionen Textseiten.

Weltweit arbeiten Experten an neuen Speichertechnologien. Spektakulär erscheint etwa das Projekt "Nano-Spintronics" von Physikern der Universität Hamburg: Sie versuchen, Daten auf Atomen zu speichern. Doch bis zur Realisierung könnte es noch zehn bis 20 Jahre dauern. Weiter gediehen ist die Entwicklung neuer Software zur Auswertung und Verwaltung riesiger Daten. Auf der Konferenz in Hamburg präsentieren ein Dutzend Firmen ihre Angebote dazu. "Smarter, not faster" - schlauer, aber nicht unbedingt schneller sollen Supercomputer künftig arbeiten, so das Ziel.

Noch aber geht das Wettrennen weiter. Ab 2019 werden die ersten Exaflop-Rechner erwartet. Sie sollen eine Trillion Schritte pro Sekunde rechnen können. Das bedeutet auch: Der Energieverbrauch der Boliden könnte weiter steigen. Denn obwohl die Elektronik der Rechner, etwa die Prozessoren, immer weniger Strom verbraucht, werden immer mehr Prozessoren eingebaut, sodass unterm Strich mehr Energie benötigt wird. Der "Blizzard" am DKRZ verbraucht pro Jahr 18 Millionen Kilowattstunden - das entspricht etwa dem Stromverbrauch von 3500 Vierpersonen-Haushalten. Die derzeit führenden Supercomputer verbrauchen gar doppelt bis dreimal so viel Strom.

Deshalb ist ein weiteres Thema auf der Konferenz in Hamburg die Energieeffizienz der Rechner. Erste Vorzeige-Projekte gibt es schon. Am Leibniz-Rechenzentrum (LRZ) in Garching bei München soll 2012 der neue Hochleistungsrechner "SuperMUC" in Betrieb gehen. Erstaunlich ist nicht nur seine Höchstleistung von drei Petaflops, sondern auch seine Klimaanlage. Normalerweise sind auf Chips Kühlkörper angebracht, welche die Wärme der Prozessoren auffangen. Diese wird dann über die Luft durch ein Gebläse abgeleitet.

Bei SuperMUC läuft über Kupferleitungen 40 Grad warmes Wasser zur Kühlung über die Chips. Durch die aufgenommene Wärme auf 60 Grad erhitzt, soll es zur Heizung des Gebäudes genutzt werden. "Bisher galt als Faustregel, dass vom Stromverbrauch eines Supercomputers gut 25 Prozent auf die Kühlung der Prozessoren entfiel. Bei SuperMUC ist dieser Anteil auf zehn Prozent reduziert", sagt Ludger Palm vom LRZ.

Auch der Supercomputer des DKRZ in Hamburg soll künftig weniger Energie verbrauchen. Seine Klimaanlage lässt durch Löcher im Boden kalte Luft nach oben strömen, die von den Rechenschränken angesaugt wird und erwärmt an anderer Stelle hinaustritt. Mit 200 000 Euro Fördergeld von der Stadt werde demnächst eine sogenannte Einhausung des Rechners stattfinden, sagt Thomas Ludwig. Dabei soll kalte von heißer Luft getrennt werden, damit die Kühlung effizienter arbeitet. Das soll erheblich Strom sparen - und damit auch weniger Klimaschädliches Co2 erzeugen: "Wir wollen den Klimawandel ja prognostizieren, nicht produzieren."