Kommt mit steigenden Temperaturen und Wasserständen die Katastrophe? Wissenschaftler berechnen die Zukunft - mit immer größerer Genauigkeit.

Überflutete Küstenstreifen, abgeschmolzene Gletscher, verwüstete Landschaften - Schreckensbilder dieser Art ergeben sich aus den Projektionen der Klimaforscher. Sieht so unsere Zukunft aus? Oder wird es sogar noch schlimmer? Denn derzeit gibt es auch Hinweise, als würde die Realität, etwa das Abschmelzen des ganzjährigen Eises der Arktis, die errechneten Trends sogar noch "überholen". Computermodelle können vieles darstellen, aber vorhersehen können sie die Zukunft nicht. Allerdings können sie mit immer besserer Genauigkeit Zusammenhänge aufzeigen, menschliches Handeln inklusive. Ein neuer Meilenstein soll dazu in Hamburg gesetzt werden: Im Frühjahr geht ein neuer Supercomputer ans Forschernetz. Experten des Hamburger Max-Planck-Instituts für Meteorologie und des Deutschen Wetterdienstes arbeiten an der nächsten Generation von Klimamodellen.

Die Modellierung ist eine Gratwanderung zwischen (Beobachtungs-)Raum und (Rechen-)Zeit. Die komplizierten physikalischen Vorgänge der Atmosphäre annähernd abzubilden erfordert viele Millionen mathematische Rechenschritte. Selbst heutige Hochleistungscomputer rechnen monatelang an einem Modelllauf. Sollen nun kleinräumige Entwicklungen dargestellt werden, etwa Szenarien für die Region Hamburg, geraten die Modelle an ihre Grenzen. Auch deshalb (und weil zum Teil noch Wissenslücken bestehen) enthalten die meisten Modelle nur sehr stark vereinfachte Gleichungen zu den Wechselwirkungen des Klimas etwa mit der Landnutzung.

Globale Modelle errechnen für jeden Gitterpunkt eines 200 oder bestenfalls 100 Kilometer groben Rasters die zukünftig zu erwartenden Klimadaten aus. Für Regionalmodelle, wie sie im Deutschen Klimarechenzentrum in Hamburg laufen, ist so ein Gitternetz viel zu grob. Das feinste Raster beträgt hier zehn mal zehn Kilometer - damit potenziert sich die Anzahl der Rechenschritte.

Die einzige Abhilfe bestand bislang darin, die Szenarien inhaltlich zu vereinfachen. Zusammen mit dem Deutschen Wetterdienst entwickelt das Max-Planck-Institut für Meteorologie (MPI-M) einen neuen Ansatz: "Das neue Modell wird nicht mehr in quadratischen Rastern, sondern in einer Dreiecksstruktur rechnen, bei dem wir einzelne Dreiecke verfeinern können", sagt Dr. Martin Claußen, Direktor am MPI und Universitätsprofessor. Besonders interessante Flächen lassen sich auf diese Weise klimatologisch unter die Lupe nehmen.

Parallel wird die Hardware aufgerüstet: Im Frühjahr 2009 wird an der Bundesstraße ein neuer Klimarechner in Betrieb gehen. Das sogenannte IBM Power6 System wird 60-mal so schnell sein wie der jetzige NEC-Rechner. Mit einer Spitzenleistung von mehr als 140 Teraflop pro Sekunde (140 Billionen Rechenoperationen/s) wird der Rechner zu den weltweit größten Supercomputern gehören, die für wissenschaftliche Zwecke eingesetzt werden.

Die technische Hochrüstung vermag ein Grundsatzproblem jedoch nicht zu lösen: Keiner weiß, wie sich die Menschen zukünftig verhalten werden. Wie werden sich Bevölkerungs- und Wirtschaftswachstum entwickeln? Werden der Klimaschutz und der Waldschutz vorankommen? Solche Fragen entscheiden über den Treibhausgasausstoß der Zukunft und damit über die Basisgröße der Szenarien. Der Weltklimarat IPCC hatte für seine im Jahr 2007 veröffentlichten Berichte aus 40 gängigen Szenarien nur sechs ausgewählt, um die Rechenzeiten an den verschiedenen Klimaforschungszentren der Welt überschaubar zu halten. Der Frankfurter Meteorologe Prof. Christian-Dietrich Schönwiese nennt dies "Mutmaßungen über die Zukunft", bei denen natürliche Faktoren mangels Vorhersagbarkeit außen vor bleiben müssen. "Wenn wir große Vulkanausbrüche bekommen, dann stimmen alle Szenarien nicht mehr", gibt er zu bedenken. Der emeritierte Professor der Universität Frankfurt ging mit seinem Team einen anderen Weg: Er rechnet die Klimadaten des 20. Jahrhunderts in die Zukunft hoch - und kommt auf ähnliche Temperatur- und Niederschlagtrends wie die Modelle.

Diese haben ein Problem mit Wolken. Sie fallen wortwörtlich durch das zu grobe Raster. "Bei den Globalmodellen haben Sie eine große Gitterbox mit vielen kleinen Wolken", sagt Dr. Daniela Jacob vom MPI-M. "Umgekehrt können Sie bei unserem Regionalmodell eine zehn mal zehn Kilometer große Rasterfläche nicht isoliert betrachten, sondern müssen Nachbarflächen mit einbeziehen, um den numerischen Verfahren, die rechnerisch Luft in die Gitterkästen transportieren, gerecht zu werden."

Wolken seien zwar in den Rechnungen berücksichtigt, aber für die Modellierer weiterhin eine große Herausforderung, betont Jacob. Dagegen gebe es Fortschritte im weltweiten Bemühen, das Treibhausgas Methan, das etwa aus auftauenden oder trockengelegten Böden entweicht, rechnerisch zu erfassen, wie auch den Klimabeitrag der Wälder. Jacob: "Wir können in den Modellen die Folgen der Entwaldung einbeziehen und auch Taiga von Tundra oder Regenwald unterscheiden, aber noch nicht zufriedenstellend Fichten von Buchen." Ins Hamburger Regionalmodell sollen jetzt zusätzliche regionale Effekte etwa durch Umwandlung von Weide- zu Ackerflächen eingebaut werden. Doch erst mal muss das neue Superhirn laufen. Jacob: "Wir warten alle auf den neuen Computer."