Verlässliche Daten über die globale Temperaturentwicklung gibt es erst seit der Mitte des 19. Jahrhunderts, genügend Stationswerte über die Temperaturen in Deutschland erst seit 1881. Deshalb sind Zahlen zu extremen Ereignissen, wie Starkregen oder ein heißer Jahrhundertsommer, auch erst seit dieser Zeit verfügbar. Und genau das ist das Problem, woran Marco Oesting, Junior-Professor für Computational Statistics und sein Doktorand, Max Thannheimer, arbeiten. Mit und trotz der spärlichen Datenlage entwickeln sie mathematische Methoden, mit denen langfristige Aussagen darüber getroffen werden können, wie häufig bestimmte Ereignisse auftreten und wie ein Ereignis aussieht, das einmal in 10.000 Jahren eintritt.
Die Extremwertstatistik (auch Extremwerttheorie genannt) ist ein Teilgebiet der Statistik, das sich mit der Verteilung von extremen Werten beschäftigt. Ziel ist es, die Wahrscheinlichkeit und Größenordnung solcher Extremereignisse zu modellieren und vorherzusagen.
Entwickelt hat sich dieses Forschungsgebiet nach einer schweren Sturmflut in den Niederlanden im Jahr 1953, bei der über 1.800 Menschen ums Leben kamen. „Danach hat die niederländische Regierung das Ziel ausgerufen, die Deiche systematisch zu bauen und nicht nur auf Verdacht. Es sollten Deiche errichtet werden, die nur einmal in 10.000 Jahren überflutet werden“, erklärt Marco Oesting. Es wäre kein Problem, dies zu berechnen, wenn man die Aufzeichnungen der letzten eine Million Jahre hätte. „Dann könnte man einfach zählen, was im Durchschnitt einmal in 10.000 Jahren passiert.“ Da diese Daten aber nicht existieren, entwickelt Marco Oesting mit seinem Forschungsteam und mit Hilfe der Extremwertstatistik mathematische Methoden, die dafür konzipiert sind, solche Berechnungen anzustellen.
Sie fragen sich nicht, wie wahrscheinlich es ist, dass es morgen stark regnen wird - wie bei Wettervorhersagen - sondern sie fragen sich, wie oft ein extremes Ereignis über einen langen Zeitraum hinweg eintreten und wie dieses Ereignis aussehen wird. Diese Frage ist für langfristige Schutzmaßnahmen relevant, zum Beispiel für die Höhe der Dämme.
Ab wann ist ein Ereignis extrem?
Doch was ist überhaupt ein extremes Ereignis? Bei welchem Wert ist beispielsweise Starkregen extrem? Dazu Max Thannheimer: „Wir versuchen das so zu definieren, dass es Regen ist, der zu einer Überflutung führt.“ Dabei berücksichtigen sie unterschiedliche Szenarien in ihrem Modell, zum Beispiel die Regenmenge auf nur einem Punkt der Landkarte oder sehr viel großflächigeren Regen entlang eines ganzen Flusses.
Was dann aber tatsächlich zu einer Überflutung führt, hängt nicht nur von der Regenmenge ab, die zu einem Zeitpunkt fällt, sondern auch von weiteren Bedingungen. Dazu Marco Oesting: „Man braucht auch meteorologische Daten über die Vergangenheit, um zu wissen, wie die Böden gerade beschaffen sind. Sind sie gesättigt? Wird das Wasser oberirdisch abfließen oder kann es versickern?“
Doch das wäre der nächste Schritt. „Wir bauen zuerst die statistischen Modelle, die den Regen so gut modellieren, dass man diesen dann in diese Abflussmodelle integrieren kann“, ergänzt er. „Wenn man weiß, wie der Regen fällt, ist es relativ klar vorgezeichnet, was passiert. Vorausgesetzt, man kennt den Boden gut genug. Dann kann man theoretisch für jeden Wassertropfen ausrechnen, wo er in drei Tagen sein wird“, so Marco Oesting.
Das Ziel der beiden Wissenschaftler ist es, ein flexibles Modell zu entwickeln und zu zeigen, dass ihre Methode unter den vorgegebenen Annahmen funktioniert. Das Modell ist dann nicht nur auf Regen beschränkt, es könnte auch auf viele weitere Prozesse oder Ereignisse angewendet werden, zum Beispiel auf Stürme.
Entwicklung neuer Methoden
Die Modelle, die die beiden Wissenschaftler verwenden, um die extremen Ereignisse zu beschreiben, sind sogenannte Brown-Resnick Pareto-Prozesse. Ein Brown-Resnick Pareto-Prozess ist ein mathematisches Modell, das zum einen beschreibt, wie extreme Werte an verschiedenen Orten miteinander zusammenhängen, zum anderen, wie Ereignisse aussehen können, die Extrem sind. Also nicht nur wie hoch der höchste Pegelstand eines Flusses in einem Jahr wird, sondern wie viel höher der Pegelstand noch werden kann, wenn er einmal hoch ist.
Bedingte Simulation bedeutet, dass man ein Zufallssystem oder Zufallsvariablen unter einer bestimmten Bedingung simuliert – also so, dass nur solche Ergebnisse erzeugt werden, die mit einer vorgegebenen Information oder einem Ereignis vereinbar sind.
Somit kann man modellieren, wie extreme Ereignisse über ein Gebiet verteilt sind, wenn sie auftreten, und wie stark sie ausfallen. „Hinter diesen Modellen steckt die Gaußsche Normalverteilung, das ist in der Statistik die Standardlösung, die super erforscht ist,“ erklärt Max Thannheimer. „Und da gibt es einen ganz großen Werkzeugkasten, auf den man zugreifen kann.“
Da sich die Wissenschaftler aber im Bereich der Extremwertstatistik bewegen, müssen sie diese Werkzeuge so kombinieren oder verwenden, wie sie noch nicht oft oder noch nie angewendet wurden, zum Beispiel für eine bedingte Simulation. „Wir haben eine große Fläche mit ganz vielen Punkten, auf denen wir simulieren wollen, aber nur sehr wenig Beobachtungen. Und wir machen dann eine Simulation auf den vielen Punkten, bedingt auf die wenigen Punkte, die wir haben“, so Max Thannheimer.
Überprüfung in der Realität
Ob ihre Modelle funktionieren, können die Wissenschaftler nicht in der Realität überprüfen. Doch es gibt andere Methoden, sie zu bewerten. „Wir haben Daten aus 100 Jahren und wollen etwas vorhersagen, was einmal in 10.000 Jahren passiert. Ich könnte jetzt einfach eine Zahl wiedergeben. Das ist dann auch meine beste Vorhersage, aber die Zahl, die kann ich natürlich nicht sicher wissen. Korrekterweise müsste man auch mit angeben, in was für einer Bandbreite die Zahl wahrscheinlich liegt. Und je weiter man in die Zukunft geht, also je länger die Zeiträume sind, desto unsicherer wird man dabei“, erklärt Marco Oesting. Deshalb versuchen sie, diese Modelle zu verifizieren, indem sie so tun, als hätten sie zum Beispiel nur die Hälfte der Daten. „Kann ich dann mit dem Modell, das ich habe, richtig vorhersagen, was mir die andere Hälfte an Informationen noch liefert? Also solche Tricks wendet man dann typischerweise an“, so Marco Oesting.
„Wir testen mit simulierten Daten, ob unser Verfahren in der Theorie überhaupt funktionieren würde. Wir simulieren nicht speziell den Regen, sondern einen zufälligen Prozess. Dann schauen wir, wie gut wir diesen Prozess mit unserem statistischen Modell bestimmen können, ob wir die Parameter von diesem Prozess genau schätzen können und ob wir sie mit unserem komplizierteren Modell besser schätzen können als mit einem Standardmodell“, ergänzt Max Thannheimer.
Eine weitere Verifikationsmethode, mit der man dann überprüfen kann, ob das Modell passt, geht über Kennzahlen. „Sie sagen beispielsweise aus, wie stark der Regen in Stuttgart und der Regen in Reutlingen miteinander zusammenhängen. Das heißt, man schaut sich alle Starkregenereignisse in Reutlingen an und schaut dann, wie oft es gleichzeitig auch in Stuttgart regnet. Und danach kann man überprüfen, ob das Modell, das man hat, das richtig wiedergibt“, erklärt Marco Oesting.
Das Dilemma des Prognostikers
Richtig bedeutet in dem Fall, dass es so ähnlich aussieht, wie die Daten es hergeben. Denn je weniger Daten man hat, desto weniger geben die Daten sichere Aussagen darüber her. „Man kann dann nur versuchen, das Modell möglichst gut an die wenigen Daten anzupassen, die man hat“, sagt Marco Oesting. „Das ist die Kunst, das zu überprüfen und die Wahrscheinlichkeiten so wiederzugeben, dass auch klar wird, wie unsicher man sich eigentlich ist.“
Diese Unsicherheit wird in der Extremwert-Community auch als das Forecaster‘s-Dilemma bezeichnet, das Dilemma des Prognostikers. Es beschreibt ein grundsätzliches Problem, das entsteht, wenn man Prognosen anhand seltener Ereignisse bewertet. Die Prognosen extremer Ereignisse sind besonders interessant, statistisch gesehen kommen sie aber kaum vor. Deshalb ist es schwer zu bewerten, ob das Modell, bzw. die Prognose gut war.
„Man könnte es sich einfach machen und ein Modell bauen, das sagt, dass immer etwas Schlimmes passiert. Passiert es dann tatsächlich, werden diejenigen, die es prophezeit haben, gefeiert, so nach der Art: ‚Ich erzähle euch schon seit zehn Jahren, es wird mal eine schlimme Überflutung passieren‘. Aber das ist nicht die Kunst, sondern man sollte die Wahrscheinlichkeiten vorhersagen“, erklärt Marco Oesting.
Modelle sind von Interesse für Geologen und Hydrologen
Die Modelle, die die beiden Wissenschaftler entwickeln, sind auch für andere Forschende interessant. Dazu Max Thannheimer: „Das Modell, das wir entwickelt haben, hat ja die Stärke, dass wir extreme Regenereignisse simulieren können, die in dem Sinne extrem sind, dass sie zu Überflutung führen. Das ist auch interessant für andere Wissenschaftler, gerade für Geologen und Hydrologen.“
Auf einer Konferenz in den USA habe er eine Präsentation zu einem ähnlichen Thema gesehen. „Die Wissenschaftler haben sich auch damit beschäftigt, wie extremer Regen aussieht, aber eher von der geologischen, hydrologischen Seite. Sie hatten jedoch gar nicht die Möglichkeit, diesen speziellen Extremfall von Regen zu simulieren. Da könnte man sich gegenseitig helfen.“ Aber auch Versicherungsunternehmen und Kommunen haben Interesse an solchen Modellen, um Risiken zu berechnen oder um Schutzmaßnahmen zu planen.
Klimawandel wird mit einberechnet
Inwieweit der Klimawandel diese Extremwetterereignisse beeinflusst, wird in einem anderen Projekt von Marco Oesting erforscht. ClimXtreme ist ein Verbundprojekt, an dem mehrere Forschungseinrichtungen beteiligt sind, die unterschiedliche Aspekte untersuchen, wie beispielsweise auch die Auswirkungen von Extremereignissen auf die Wasserversorgung oder das Ausmaß der Schäden. Marco Oesting und seine Doktorandin Carolin Forster entwickeln auch dafür statistische Methoden, um diese Auswirkungen zu beschreiben. „Da geht es im Wesentlichen darum, die Modelle, die man schon hat, noch etwas besser anzupassen“, so Marco Oesting. „Idealerweise möchte man unter variablen Klimabedingungen, unter variablen geografischen Bedingungen extreme Ereignisse möglichst gut modellieren können. Aber es gibt eben sehr, sehr viele verschiedene Teilaspekte, die man da berücksichtigen muss und sehr, sehr viele Schritte, die noch zu gehen sind“, ergänzt er.
Manuela Mild | SimTech Science Communication
Zum Weiterlesen
Legrand, P. Naveau & M. Oesting (2025). Evaluation of binary classifiers for asymptotically dependent and independent extremes. Journal of the American Statistical Association 120(551), 1558–1568.
Forster & M. Oesting (2025). Non-stationary max-stable models with an application to heavy rainfall data. Extremes 28, 523–556.
Thannheimer (2024, joint work with M. Oesting). Bayesian inference for functional extreme events defined via partially unobserved processes. Oberwolfach Reports 21(3), 2189-2191
Engelke, R. de Fondeville & M. Oesting (2019). Extremal Behavior of Aggregated Data with an Application to Downscaling. Biometrika 106(1), 127-144.
Über die Wissenschaftler
Marco Oesting studierte Mathematik an der Universität Göttingen und promovierte dort im Bereich der Extremwertmodellierung. Nach Post-Doc Stellen an den Universitäten Mannheim, am INRA in Paris und an der Universität Twente arbeitete er als akademischer Rat an der Universität Siegen, wo er sich auch habilitierte. Seit 2020 ist er SimTech Junior-Professor am Institut für Stochastik und Anwendungen an der Universität Stuttgart. Hier leitet er die Arbeitsgruppe für Computational Statistics. Seine Forschungsschwerpunkte sind die Extremwerttheorie und -statistik, räumliche Statistik, Simulation stochastischer Prozesse und Zufallsfelder sowie die statistische Modellierung von Extremereignissen in Klima- und Umweltwissenschaften. In SimTech arbeitet er im Projekt PN 5-10. Zudem organisiert er die Vortragsreihe „Mathe Macht!“, bei der sich Mathematik-Studierende frühzeitig über ihre beruflichen Möglichkeiten in Unternehmen informieren können.
Max Thannheimer studierte Mathematik im Bachelor und Master an der Universität Stuttgart und promoviert nun bei Marco Oesting im Bereich der Extremwertstatistik, mit der er sich bereits in seiner Masterarbeit beschäftigte. Damit eröffnete sich für ihn ein Gebiet, von dem er noch nie etwas gehört hatte und das ihn sehr neugierig machte. Die Grundlagenforschung findet er interessant, weil er damit die ganzen Dinge, die es in der „normalen“ Statistik bereits schon seit 200 Jahren gibt, neu erforschen und anwenden kann. Besonders cool findet er, dass die Extremwertstatistik ein kleiner Bereich und noch relativ unbekannt ist und er deshalb auf Konferenzen oft die Koryphäen auf diesem Gebiet trifft. Er war mit ihnen sogar schon bei einem Baseballspiel.