2000 Spezialisten für Hochleistungscomputer treffen sich in Hamburg, um die Schnellrechner für die Wissenschaft weiterzuentwickeln.

Hamburg. Hochleistungsrechner sind in vielen Wissenschaftsdisziplinen zu den Motoren der Forschung geworden, ohne sie liefen weder Klimamodelle, noch könnten Molekularbiologen dreidimensionale Eiweißstrukturen betrachten. Von heute bis Donnerstag treffen sich etwa 2000 Teilnehmer zur Internationalen Supercomputer-Konferenz (ISC) im CCH. Sie feiert ihr 25-jähriges Bestehen. In diesem Vierteljahrhundert haben die Rechner eine rasante Entwicklung genommen.

Es gehe mittlerweile nicht mehr allein um die Rechenleistung von Supercomputern, sagt Prof. Dr. Matthias Rarey, Geschäftsführender Direktor des Zentrums für Bioinformatik der Universität Hamburg. Seine Fachdisziplin bestreitet den ersten Konferenztag, an dem Rarey ein Forum leitet. "Im Gegensatz zu früheren Konferenzen diskutieren die Teilnehmer heute ein breites Spektrum von Fragen, zum Beispiel: Wie können wir die riesigen Datenmengen, die Supercomputer produzieren, besser speichern? Oder: Wie lässt sich der enorme Stromverbrauch von Supercomputern drosseln? Immerhin benötigen die Top-Systeme zwischen zwei und sieben Megawatt - das entspricht dem Stromverbrauch von 10 000 bis 30 000 Haushalten." Auch die Anwendung von Supercomputern in verschiedenen Disziplinen spielt auf der Konferenz eine wichtige Rolle. Und ein besonderer Höhepunkt wird, wie in jedem Jahr, die Vorstellung der neuen Top-500-Weltrangliste der leistungsfähigsten Rechner sein.

Rarey darf bereits Details zur neuen Rangliste verraten. Auf Platz eins liegt unverändert der amerikanische "Jaguar" von der Firma Cray. Neu und auch für die Fachwelt erstaunlich: Auf dem zweiten Platz landet "Nebulae", ein Rechner aus China. Rang drei belegt der amerikanische "Roadrunner" von IBM, der zuvor den zweiten Platz besetzt hatte. Der schnellste europäische und zugleich schnellste deutsche Supercomputer, "Jugene" vom Forschungszentrum Jülich, erreicht in diesem Jahr Platz fünf. Der Hamburger "Blizzard" vom Deutschen Klimarechenzentrum (DKRZ) kommt auf den respektablen Platz 41. Insgesamt finden sich in der Top-500-Weltrangliste 24 Systeme aus Deutschland - genauso viele wie aus China. Führend sind die USA mit 282 Supercomputern.

HIER GEHT ES ZUM LIVE-STREAM DER KONFERENZ

Maßstab des Leistungsvergleichs sind die sogenannten Flops. Sie sind die Maßeinheit für die ausgeführten Rechenoperationen pro Sekunde. Der von Konrad Zuse 1941 gebaute Z3 - der erste Digitalrechner überhaupt - erreichte zwei Flops. In den 80er-Jahren schafften die leistungsfähigsten Computer schon Gigaflops, also eine Milliarde Rechenoperationen pro Sekunde. Rarey: "Die führenden Systeme auf der aktuellen Top-500-Liste können mehr als eine Billiarde Schritte pro Sekunde rechnen, genannt Petaflops. Das entspricht der Leistung von 20 000 bis 50 000 handelsüblichen PCs. Der 'Blizzard' vom DKRZ in Hamburg schafft immerhin bis zu 158 Billionen Rechenschritte pro Sekunde. Zum Vergleich: Wenn jeder Mensch auf der Welt in einer Sekunde zwei Kommazahlen multiplizieren würde, erreichte die gesamte Menschheit nur ein 25-tausendstel dieser Leistung."

Supercomputer verfügen über mehrere Hunderttausend Prozessoren, CPUs. Diese CPUs sind aber nicht unbedingt schneller getaktet; ähnliche Modelle kommen auch in Schreibtischcomputern zum Einsatz. Der entscheidende Unterschied besteht darin, dass sich in Hochleistungsrechnern eine Heerschar von Prozessoren die Aufgaben teilt und parallel arbeitet.

Der Klimarechner ist ein typischer Vertreter der Supercomputer, denn sie werden hauptsächlich in der Wissenschaft eingesetzt. Dabei geht es oft um Dinge, die für die Gesellschaft von großem Interesse sind und früher oder später auch im Alltag zum Zuge kommen. Zum Beispiel die Wettervorhersage: Diese Simulation der nahen Zukunft ist nur mit Supercomputern möglich, weil diverse wetterbestimmende Faktoren wie Feuchtigkeit, Luftdruck, Temperatur und Windgeschwindigkeit zeitlich und räumlich mit hoher Genauigkeit berechnet werden müssen. Das gilt auch für die Szenarien zum drohenden Klimawandel - der Blick in die kommenden Jahrzehnte erfordert ebenfalls sehr aufwendige Berechnungen.

Während die Arbeit der elektronischen Superhirne, die Klima modellieren, ab und an für Schlagzeilen sorgt, rechnen die Hochleistungscomputer der Lebenswissenschaften, die Prozesse und Strukturen von Lebewesen erkunden, eher im Verborgenen. Aber auch hier spielen sie eine immer größere Rolle - und die Hauptrolle beim ersten Konferenztag in Hamburg.

"In den Lebenswissenschaften verfügen wir heute über so große Datenmengen, dass wir diese oft nur mithilfe leistungsfähiger Computer analysieren können", sagt Matthias Rarey. "Beispielsweise können wir Organismen auf der Ebene ihrer Gene vergleichen oder die räumliche Struktur und Funktion von Proteinen vorhersagen, um auf dieser Basis neue Medikamente zu entwickeln. Die Bedeutung des Computers in den Lebenswissenschaften ist so groß, dass sich daraus bereits vor mehr als 15 Jahren die Bioinformatik als eigenständige wissenschaftliche Disziplin gebildet hat."

Beim Vergleich der elektronischen Schnelldenker mit dem menschlichen Gehirn sieht Rarey noch deutliche Vorteile des biologischen Systems: "Ein Computer braucht immer einen Algorithmus bzw. ein Programm, das ihm sagt, welche Rechenschritte er ausführen muss. Unser Gehirn ist aber zu ganz anderen Leistungen fähig, zum Beispiel zu Kreativität. Solche Fähigkeiten können wir heute noch kaum in Rechenschritte übersetzen." Aber die Computer und die Software werden immer besser, so Rarey: "Muster in Bildern wiederzuerkennen ist eine Leistung, die lange Menschen vorbehalten war. Heute können aktuelle Digitalkameras mithilfe einer Software schon erkennen, wo sich Gesichter befinden. Neuere Computerprogramme sind sogar in der Lage, Gesichter Personen zuzuordnen. Noch bewältigt das menschliche Gehirn solche Aufgaben jedoch besser."

Supercomputer beeindrucken vor allem durch ihre Rechengeschwindigkeit. Und da scheinen weitere Steigerungen möglich. Rarey: "Dem Mooreschen Gesetz zu Folge, das aus den 1960er-Jahren stammt, soll sich die Zahl der Schaltelemente auf einem Prozessor alle zwei Jahre verdoppeln. Bis heute ist das tatsächlich so geschehen." Und noch sei kein Ende in Sicht. Allerdings habe die Konstruktion von Prozessoren eine natürliche Grenze: Spätestens, wenn die Schaltkreise auf Prozessoren eine atomare Auflösung erreichen, könne man sie nicht weiter verkleinern. Außerdem sei eine höhere Computerleistung grundsätzlich nur sinnvoll, solange man sie mit entsprechender Software auch nutzen kann.

Das könnte zum Problem werden, so der Bioinformatiker: "Damit die Leistungsfähigkeit von Supercomputern genutzt werden kann, brauchen wir nicht nur Chip-Entwickler, sondern zunehmend auch hoch qualifizierte Fachkräfte, die zum Beispiel naturwissenschaftliche Fragen so in Modelle und Algorithmen übersetzen können, dass man sie mit Computern bearbeiten kann. Bisher gibt es aber zu wenige solcher Leute. Deshalb haben wir an der Universität Hamburg auch einen neuen Studiengang ,Computing in Science' eingerichtet." Dieser kombiniert theoretische Elemente aus Biochemie, Chemie oder Physik mit Informatik und Mathematik - und will sicherstellen, dass auch in Zukunft immer bessere Rechnerhardware mit entsprechend brillanten Programmen gefüttert wird.