Ob die nächste Rechner-Generation zu schnell ist, um nützlich zu sein, diskutieren ab Sonntag 2400 Experten auf einer Konferenz im CCH.

Hamburg. Trillionen Schritte pro Sekunde soll die nächste Generation der Supercomputer rechnen können - mindestens 100-mal mehr als der derzeit schnellste Rechner der Welt, der "K Computer". Zwar werden diese sogenannten Exaflop-Rechner wohl erst von 2019 an auf den Markt kommen, dennoch sind die mit ihnen verbundenen Herausforderungen das wichtigste Thema der 27. Internationalen Supercomputer-Konferenz, die vom 17. bis 21. Juni im CCH stattfinden wird. Diskussionsbedarf haben die 2400 Experten aus aller Welt deshalb, weil schon jetzt die Anwendungen für Supercomputer der Technik hinterherhinken. Künftig könnte die Diskrepanz zwischen der möglichen Rechenleistung und dem wahren Nutzen noch größer werden.

In den vergangenen 20 Jahren sind Rechner eine Million Mal schneller geworden. Durch den Geschwindigkeitszuwachs können heute schon Privatanwender mit einem handelsüblichen PC Bilder bearbeiten, Musik komponieren oder Filme schneiden. Supercomputer leisten weit mehr: Sie errechnen etwa das Wetter der nächsten Tage, zeigen, wie sich Galaxien bilden könnten, simulieren Crashtests in der Autoindustrie und helfen bei der Entwicklung neuer Medikamente. Noch bestehen viele dieser Maschinen aus Prozessoren, die in ähnlicher Form in PC arbeiten. Deshalb ist es für Forscher und Informatiker bisher relativ leicht gewesen, schon länger genutzte Programme - ob gekauft oder selbst entwickelt - an neu erworbene Supercomputer anzupassen.

+++++So funktionieren die Hochleistungsrechner+++++

Doch seit Kurzem setzen die Hersteller der Riesenrechner zunehmend Spezialprozessoren ein, die auf Grafikkarten basieren. Diese Chips, die bisher in erster Linie dem Hauptprozessor assistierten und grafikintensive Anwendungen, etwa Computerspiele, flüssig laufen ließen, sind inzwischen so weit entwickelt, dass sie viele normale Prozessoren lahm aussehen lassen. Während normale Chips komplexe Rechenaufgaben schnell hintereinander lösen, verarbeiten Grafikchips einfache Rechenschritte gleichzeitig. Deshalb sind sie bei bestimmten Aufgaben schneller. Was die Hersteller stolz macht, bereitet Anwendern Sorgen: "Viele Programme müssen für Supercomputer mit Spezialchips womöglich völlig neu programmiert werden. Dafür fehlt an Hochschulen und Forschungseinrichtungen oft das Geld", sagt Prof. Stephan Olbrich, Leiter des Regionalen Rechenzentrums an der Universität Hamburg.

Die Frage, wie man die Leistung der neuen Geräte ausschöpfen könne, sei Gegenstand eines neuen interdisziplinären Forschungsgebietes, sagt Olbrich. Nach Lösungen suchen etwa Naturwissenschaftler, Informatiker und Mathematiker im "Lothar Collatz Center for Computing in Science" an der Uni Hamburg. Die Graduiertenschule hat zum Start Geld von der Hamburger Wissenschaftsstiftung erhalten; weitere Mittel will die Gruppe bei der Deutschen Forschungsgemeinschaft einwerben. Diese hat bereits ein Schwerpunktprogramm aufgelegt, das sich mit Software für Exaflop-Computer beschäftigt.

Wie schnell sich Programme anpassen lassen, hängt von der Art der Algorithmen ab. Sind diese Codes sehr groß und über Jahrzehnte weiterentwickelt worden wie in der Klimaforschung, ist die Anpassung aufwendig; sind die Rechenvorgaben vergleichsweise kurz, macht das die Sache einfacher. "Einige Disziplinen, etwa die Astrophysik und die Bioinformatik, werden wohl von der neuen Rechnergeneration profitieren. Andere werden Schwierigkeiten bekommen", sagt Prof. Thomas Ludwig, Direktor des Deutschen Klimarechenzentrums (DKRZ) in Hamburg. "In der Klimaforschung gibt es bisher nur Anwendungen, die mit bis zu 10 000 Prozessorkernen effizient laufen würden." Zur Einordnung: Der "Blizzard" des DKRZ verfügt über 8500 Kerne; in Exaflop-Rechnern könnten mehr als zehn Millionen Kerne arbeiten. "Mit der Programmierung für Exaflop-Rechner verhält es sich so, als sollten eine Million Arbeiter ein Loch schaufeln. Dies so zu koordinieren, dass die Arbeiter sich nicht behindern, ist sehr schwierig. Einfacher wäre es, wenn sie eine Million Löcher schaufelten", sagt Ludwig.

+++++Schachduell live verfolgen+++++

Die Anpassung ist längst nicht das einzige Problem. Gegen den Einsatz der künftigen Riesenrechner spricht auch ihr gewaltiger Stromverbrauch, der zumindest beim jetzigen Stand der Technik zu erwarten ist. Konsortien, die Exaflop-Rechner einsetzen wollen, wünschen sich Ludwig zufolge eine maximale Anschlussleistung von 20 Megawatt. Bei den gegenwärtigen Stromkosten würde der Betrieb eines Exaflop-Rechners demnach 20 Millionen Euro pro Jahr kosten. "Technisch realistisch sind wohl eher 100 Megawatt. Das würde 100 Millionen Euro pro Jahr kosten. Ob die Gesellschaft das bezahlen will, ist offen", sagt Ludwig. Zum Vergleich: Der Betrieb des "Blizzard" am DKRZ kostet etwa zwei Millionen Euro pro Jahr. Derzeit suchten sie nach einem neuen Supercomputer, der drei Petaflops rechnen kann und damit 20-mal schneller wäre als der "Blizzard", sagt Ludwig. Aber: "Das neue Modell soll möglichst nicht mehr Strom verbrauchen." Keine einfache Aufgabe.

Derweil tüfteln andere Forscher an neuen Methoden, Daten zu verarbeiten. Besonders heiß diskutiert wird über Quantencomputer. Diese sollen die quantenmechanischen Eigenschaften von Atomen nutzen. Normale Bits können nur für 0 oder 1 stehen - die beiden Zeichen des digitalen Alphabets. Sogenannte Qubits hingegen können beide Werte enthalten und noch viele andere dazu. Deshalb könnte ein Quantencomputer theoretisch mit extrem vielen Zahlen gleichzeitig rechnen - und womöglich innerhalb von Minuten Aufgaben erledigen, für die herkömmliche Supercomputer Jahre bräuchten.

Nachweislich gelang es Forschern bisher, maximal 14 Qubits zu fixieren - für Sekundenbruchteile. Die kanadische Firma D-Wave Systems hat nach eigenen Angaben einen Quantencomputer mit 128 Qubits entwickelt und schon zwei Stück verkauft. Den Nachweis, das die angeblichen Wundermaschinen funktionieren, ist die Firma bisher allerdings schuldig geblieben.