Wie seltene Extremwetterereignisse besser vorhergesagt werden können

Von Jahrhundertfluten und -stürmen

Ein Beitrag von Kim Ferber, Johannes Krauss und Ramona Willig im Rahmen der Kooperation zwischen SimTech und Studierenden der Hochschule der Medien (HdM)  

Extremes Wetter ist ein globales Problem. Besonders außergewöhnliche Ereignisse werden als „Jahrhundertereignis” bezeichnet – zum Beispiel in Deutschland der Jahrhundertsommer 2003, der Jahrhundertsturm Kyrill 2007, oder das Jahrhunderthochwasser im Ahrtal 2021. Aufgrund der Klimaerwärmung rechnet der Deutsche Wetterdienst (DWD) in Zukunft mit noch mehr Extremwetterereignissen, wie Stürme oder Hitzewellen. Das sind Ereignisse, die große, schwere Auswirkungen haben und typischerweise selten auftreten.

Wie solche Ereignisse mit dem Klimawandel zusammenhängen, ist nicht eindeutig geklärt. Denn die Klimaforschung benötigt große Mengen an Daten, um zuverlässige Ergebnisse zu liefern. Doch Extremereignisse sind selten, schwierig vorherzusagen und unterscheiden sich auch von Region zu Region. Die Arbeitsgruppe “Computational Statistics“ forscht seit 2020 an der Universität Stuttgart und untersucht, wie häufig diese extremen Ereignisse auftreten und wie schwerwiegend sie sind. 

Grundlagenforschung hat das Ziel, grundlegende Prinzipien, Gesetzmäßigkeiten und Zusammenhänge zu verstehen. Sie fokussiert sich auf das Entwickeln und Testen von Theorien, Modellen oder Hypothesen und bildet damit das Fundament für zukünftige Forschung.

Das Forschungsthema

Die Arbeitsgruppe von Marco Oesting betreibt Grundlagenforschung und nutzt Daten, um mathematische und statistische Modelle und Methoden zu entwickeln. Das Ziel: Aussagen über Extremwetterereignisse treffen. Die Modelle können im Idealfall vorhersagen: Wie sieht ein Ereignis aus, das einmal in 10.000 Jahren passiert? Die Forschenden versuchen Dinge, die man kaum versteht oder sicher weiß, weil sie zufällig sind, zu beschreiben und etwas Sinnvolles darüber auszusagen. Das Projekt besteht aus vielen Teilprojekten, die alle in eine Richtung arbeiten: Extremwetterereignisse und ihre räumlichen sowie zeitlichen Strukturen besser zu verstehen.

Relevanz der Forschung

Wetter ist komplex und chaotisch. Wenn sich ein Parameter für eine bestimmte Region verändert, zum Beispiel die durchschnittliche Temperatur, hat das gravierende Folgen für besagten Ort.  Seltene Extremwetterereignisse präzise vorhersagen zu können, ist vor allem für politische Entscheidungsträger, Behörden oder auch Versicherungsunternehmen interessant.

„Versicherungsunternehmen wollen letztendlich wissen: Wie entwickeln sich unsere Schäden? Wie müssen wir die Versicherungsprämien anpassen?“, sagt Oesting. Zum einen dürften die Beiträge nicht einfach übermäßig steigen. Er fügt hinzu: „Andererseits gehen die Unternehmen vielleicht irgendwann pleite, wenn Ereignisse wie Hagelschäden, Überschwemmungen oder theoretisch Dürreschäden bei Landwirten schlimmer werden.“ Statistische Modelle würden häufig im Überflutungsschutz angewendet.

Ein Beispiel:

In den 1950er Jahren gab es in den Niederlanden eine Flut mit verheerenden Folgen. Die Regierung habe daraufhin beschlossen, sich dagegen zu schützen, erzählt Oesting. „Die Idee war, die Deiche so hoch zu bauen, dass sie im Durchschnitt nur einmal in 10.000 Jahren überflutet werden.“ Um dies zu berechnen, benötigt man Daten darüber, welche Ereignisse einmal in diesem Zeitraum passieren. Das Problem: Es gibt erst seit etwa 150 Jahren belastbare Daten und Beobachtungen.

Die Extremwerttheorie und -statistik kann hier helfen: „Man versucht, mittelfristig verschiedene Szenarien zu simulieren. Anhand der wenigen Jahre, die man hat, kann so darauf geschlossen werden, was noch viel seltener passiert“, erklärt Marco Oesting. Bedeutet: Wenn das Klima im Jahr 2100 so aussieht, dann sehen typische Regenfälle so aus. „Daraus kann man schließen, wie hoch das Wasser steigen wird und wie man Deiche zum Schutz gegen Überschwemmungen bauen muss.“

Vor der praktischen Verwendung der Modelle sei jedoch nochmals einiges an Arbeit nötig, sagt Oesting. Weitere Personen mit Expertise, die die geografischen Besonderheiten vor Ort kennen, müssten die Modelle dann nochmals „tunen“.

Extremal-T-Modell und das Brown-Resnick-Modell

Für ihre Forschung nutzen sie hauptsächlich das Extremal-T-Modell und das Brown-Resnick-Modell. Beide Modelle werden in der Statistik und Stochastik verwendet, um Extremwertprozesse zu beschreiben. Sie sagen aus, wie sich Extremereignisse im Raum verhalten und sich auf die Umgebung auswirken. Die Wahl, welches Modell die Forscherinnen und Forscher für verschiedene Prozesse nutzen, hängt immer davon ab, welches besser zu den Daten passt.

Wenn sich die Forscherinnen und Forscher zum Beispiel für einen Ort anschauen wollen, wie viel Regen dort fällt, ist die Niederschlagsmenge die Hauptvariable. „Kovariaten sind dann Größen, die wir zusätzlich zu den Variablen, die uns eigentlich interessieren, hoffentlich vorliegen haben“, sagt Marco Oesting. Die Kovariaten wären in diesem Szenario weitere Informationen, zum Beispiel über die Höhe des Ortes, die aktuelle Temperatur oder den Luftdruck. „Die Idee ist, dass man von diesen zusätzlichen Größen weitere Informationen über den Regen gewinnt. Diese Infos können dann in das Modell eingebaut werden“, erklärt Marco Oesting.

Extremwerttheorie und Extremwertstatistik

Im Zentrum der Forschung und des Projektes stehen die Extremwerttheorie und die Extremwertstatistik. „Anhand der wenigen Jahre, die man an Daten hat, versuchen wir so gut wie möglich darauf zu schließen, was noch viel seltener passiert“, erklärt Marco Oesting. Mit mathematischen Modellen versuchen sie, diese Ereignisse vorherzusagen und Unsicherheiten zu quantifizieren.

Eine zentrale Rolle in der Theorie der multivariaten Extremwerte spielen funktionale Pareto-Prozesse. Sie charakterisieren die Verteilung und Struktur von Extremwerten, die über bestimmte Schwellenwerte hinausgehen. Die Prozesse werden verwendet, um das Verhalten bei einem sehr hohen Wert zu beschreiben, wenn zum Beispiel ein Pegel bei Hochwasser oder eine Extremtemperatur eine festgelegte Schwelle überschreiten. „In der Praxis haben wir mehrere Wetterstationen, die über eine Fläche oder im Raum verteilt sind“, erklärt er. Wenn man also Wetterdaten von ganz Baden-Württemberg zu Niederschlag an einem Tag hat, ist es wichtig mathematisch zu definieren: Was ist ein extremes Regenereignis?

Ist es extrem, …

  • ...wenn es an einer Stelle extrem viel Regen gab?
  • ...wenn die Niederschlagssumme groß ist?
  • ...wenn das kleinste Ereignis auch schon groß war?
  • ...der höchste Regen, der überhaupt in Baden-Württemberg an einem einzelnen Ort gemessen wird?

Das sind leicht unterschiedliche Definitionen, die zu unterschiedlichen Regenfällen führen.

Ein Threshold oder Schwellenwert ist ein fester numerischer Wert, der als Grenze dient, um eine bestimmte Zuordnung vorzunehmen. Er wird in der Mathematik und Statistik eingesetzt, um zwischen verschiedenen Kategorien, Zuständen und Aktionen zu unterscheiden.

Auch dabei, wie man „extrem“ definiert, gibt es zwei verschiedene Herangehensweisen:

  1. Möglichkeit: Die größten Datenwerte anschauen. „Wenn ich ein Jahr an Daten habe, schaue ich mir das Block-Maximum, also den größten Wert im Jahr an“, erklärt Max Thannheimer.

  2. Möglichkeit: Einen sogenannten Threshold oder Schwellenwert definieren. Sobald dieser überschritten wird, gilt ein Wert als extrem. „Hier gehe ich über alle Jahre hinweg und schaue mir die Werte an, die größer sind als ein gewisser Threshold“, führt Thannheimer aus. Für das Projekt unterscheidet die Arbeitsgruppe in: extreme Zustände (oberhalb des Schwellenwerts) und nicht-extreme Zustände (unterhalb des Schwellenwerts).

Die Simulation

Max Thannheimer erklärt dies anhand der Grafik: „Wenn ich in jede Richtung doppelt so viele Punkte berücksichtigen will, muss ich jeweils einen Punkt zwischen die roten setzen. Wenn ich davor einen Tag brauche, um das zu rechnen, brauche ich jetzt aber plötzlich 64 mal so lang, also circa zwei Monate.“ Ab einer gewissen Größe sei es deshalb unmöglich, dies zu simulieren. Eine Methode namens Circulant Embedding ermöglicht es ihnen, das zu umgehen. Sie reduziert die Rechenkomplexität erheblich und ist deshalb besonders nützlich für große zeitliche und räumliche Daten. „Jetzt brauchen wir statt 64 mal nur noch ungefähr sechs mal so lange“, sagt Marco Oesting.

Aktueller Stand

Aktuell befindet sich das von der Projektgruppe entwickelten Modelle in der Testphase. Die neuen Algorithmen und Verfahren werden mit bestehenden Methoden und anhand von Daten und Simulationen getestet, um herauszufinden, wie das Modell im Vergleich abschneidet. Die Arbeitsgruppe hofft, dass es in manchen, vielleicht sogar in allen Fällen sehr viel besser abschneidet.

Das Team

Marco Oesting leitet das Projekt. Er studierte Mathematik in Göttingen und promovierte dort im Bereich der Extremwertmodellierung. Nach mehreren Post-Doc Stellen, bei denen er unter anderem in Frankreich und den Niederlanden arbeitete, kam er an die Universität Stuttgart. Hier arbeitet er seitdem als Tenure-Track-Professor für Computational Statistics. Er erforscht, wie man große Datenmengen effizient mit einem Computer verwenden kann. Dabei beschäftigt er sich mit der Anwendung von statistischen Methoden auf Daten, insbesondere auf Extremwettereignissen.

Carolin Forster studierte Wirtschaftsmathematik an der Universität Ulm. Dieser Studiengang kombiniert Mathematik, Wirtschaftswissenschaften und Informatik. Im Masterstudium spezialisierte sie sich auf den Bereich Stochastik, und belegte die Module „Extremwerttheorie“ und „Punktprozesse“. Seit Herbst 2020 promoviertsie im Bereich der Extremwerttheorie an der Universität Stuttgart, am Institut für Stochastik und Anwendungen und befasst sich mit der statistischen Modellierung von räumlichen Wetterextremen, insbesondere Niederschlagsereignissen. Sie untersucht die Abhängigkeit von Extremereignissen von den lokalen Gegebenheiten eines Ortes.

Max Thannheimer studierte zunächst zwei Semester Technische Kybernetik an der Universität Stuttgart, wechselte dann aber zu Mathematik, da ihn das Fach begeisterte. Im Vergleich zu seinem Anfangsstudium habe er im Feld der Mathematik eine „komplett freie Spielwiese“, da es weniger anwendungsbezogen sei. Seinen Schwerpunkt legte er dann auf die Stochastik. Später schrieb er bei Marco Oesting seine Masterarbeit und kam dort auch zum ersten Mal mit der Extremwerttheorie in Kontakt.

To the top of the page