Strömungen von Gasen und Flüssigkeiten sind allgegenwärtig: Am Flugzeug, wenn wir in Urlaub fliegen, von Ventilatoren, die uns an heißen Tagen kühlen, wenn wir Strom aus Windkraft erzeugen, und selbst unser Atem beeinflusst unsere Umwelt, wie wir nicht erst seit der Corona-Pandemie wissen. Die meisten Strömungen in der Natur und in technischen Anwendungen sind turbulent, das heißt unregelmäßig, chaotisch und schwer vorherzusagen. Um diese Strömungen zu verstehen, müssen sie rechnerisch nachgeahmt und in mathematischen Modellen dargestellt werden. Ein Problem dabei ist die Überbrückung der verschiedenen Zeit- und Längenskalen, um von der Beschreibung von Effekten auf der Mikroskala bis hin zur Strömung auf der Makroskala zu kommen. Beim Flugzeug wäre die Mikroskala ein kleiner turbulenter Wirbel an einem Detail eines Flügels, die Makroskala wäre das ganze Flugzeug oder ein großer Teil davon, zum Beispiel eine Turbine.
Hier setzt die Grundlagenforschung von Andrea Beck an. Sie ist Professorin für Numerische Methoden in der Strömungsmechanik am Institut für Aerodynamik und Gasdynamik der Universität Stuttgart. „Mit modernen numerischen Verfahren kann man heute die Effekte von Strömungen bis zu einer bestimmten Größe ohne Modellierung simulieren“, sagt sie. Ohne Modellierung heißt, es werden keine weiteren Annahmen oder Vereinfachungen getroffen, sondern nur die Gleichungen gelöst, die die zugrundeliegende Strömungsphysik detailliert beschreiben. „Wir lösen die Physik am Rechner bis zu einem bestimmten Detailgrad auf.“ Beim Flugzeug wäre das zum Beispiel ein winziger Ausschnitt an der Oberfläche eines Tragflügels.
Die kleine Strömung auf dem winzigen Ausschnitt der Tragfläche (gelb-orange, am Ende des Videos) ist die Größe, die man heute ohne Modellierung mit modernen numerischen Verfahren am Supercomputer simulieren kann. Dafür sind 1,5 Mrd. numerische Gitterpunkte und rund 3,5 Mio. Prozessorstunden notwendig. Um die Strömung um das ganze Flugzeug oder in der ganzen Turbine zu simulieren, braucht man Modellierungen.
Nun hat sie mit ihrer Forschungsgruppe untersucht, inwieweit Methoden des maschinellen Lernens eingesetzt werden können, um die Informationen von der Mikroskala, das sind die Gesetze der detaillierten Physik, in die Modelle für die Makroskala einfließen zu lassen. Um diese Skalen zu überbrücken, braucht man sogenannte Schließungsmodelle.
Ein Schließungsmodell ist ein mathematisches oder konzeptionelles Modell, das verschiedene Beschreibungen ein und desselben physikalischen Vorgangs miteinander verbindet. Ist der physikalische Vorgang sehr komplex, so werden oft bestimmte Annahmen und Vereinfachungen getroffen, um eine Beschreibung des Vorgangs in reduzierter Komplexität zu erhalten. Dies sind oft vereinfachte Gleichungen, die zudem noch sehr schnell numerisch zu lösen sind. Das Schließungsmodell erlaubt es nun, auch in dieser vereinfachten Beschreibung zumindest einen Teil der komplexen Physik zu berücksichtigen.
Lücken schließen mit verstärkendem Lernen
„In dieser Gleichung wird die Physik auf einem sehr groben Level beschrieben. Man lässt ganz viel weg, aber das, was man weglässt, hat natürlich einen Effekt, das ist Physik. Man kann es nicht auflösen, weil es so fein wäre, dass man es nicht mehr rechnen kann. Aber man muss irgendwie dafür sorgen, dass der Effekt dessen, was weggelassen wird, sich in der Gleichung wiederfindet - das ist die Aufgabe des Schließungsmodells“, erklärt Andrea Beck. Und dafür haben die Wissenschaftler*innen eine Methode des maschinellen Lernens eingesetzt, das verstärkende Lernen.
An einem klassischen Beispiel erklärt Andrea Beck, wie das funktioniert: „Wenn man Fahrradfahren lernt, hat man am Anfang keine Idee davon, wie man seine Knie, sein Gleichgewicht und seine Hand halten soll. Und es ist auch schwierig zu beschreiben, denn die Eltern haben nicht gesagt: ‚Jetzt musst du das Knie unter diesem Winkel und das Fußgelenk so und dann das Gleichgewicht halten‘. Das wissen sie auch gar nicht, das ist mehr eine intuitive Sache. Man lernt also Fahrradfahren nicht durch das Befolgen von genauen Anweisungen, sondern durch wiederholtes Ausprobieren, Beobachten der Resultate der aktuellen Strategie und der schrittweisen Verbesserung von dem, was bis hier her funktioniert hat. Deswegen heißt es auch verstärkendes Lernen.“
Verstärkendes Lernen (Reinforcement Learning) ist Lernen in einem dynamischen System durch Erfahrung.
Hat man dann eine erfolgreiche Strategie gelernt, wie man beispielsweise vorwärts kommt ohne umzukippen, wird diese immer weiterverfolgt. So macht es auch der Algorithmus, wenn es darum geht, Turbulenzen zu modellieren. Die Methoden des verstärkenden Lernens probieren verschiedene Strategien aus und verfolgen die, mit der sie am weitesten kommen, um das Problem zu lösen.
In einem „Proof of Concept“, einer Demonstration, haben die Wissenschaftler*innen anschließend überprüft, ob die Methode des verstärkenden Lernens sich dazu eignet, solche Schließungsmodelle zu entwickeln, die ein Verhalten vorhersagen oder beschreiben können. Die Antwort ist eindeutig: Ja. Die Modelle waren mindestens gleich gut oder sogar besser als existierende Modelle ohne das verstärkende Lernen. „Aber wir haben uns das auf einem sehr einfachen Level angeschaut. Bildlich gesprochen können wir zeigen, dass es in einem Wasserglas funktioniert. Wir können aber noch nicht zeigen, dass es in einem Ozean oder in einem Fluss oder in einem Stauwerk funktioniert“, erklärt Andrea Beck.
Physikalische Gesetze einbauen, da der Algorithmus keine Ahnung hat
Im nächsten Schritt will Andrea Beck mit ihrem Team nun die Schließungsmodelle mit physikalischen Gesetzmäßigkeiten verbinden, ihnen quasi Physik beibringen. „Um bei dem Fahrradfahrbeispiel zu bleiben: Wenn man jemandem das Fahrradfahren beibringen will, dann wäre der naive Machine Learning-Ansatz, ihm ganz viele Bilder zu zeigen, Videos von jemandem, der Fahrrad fährt. Derjenige schaut sich das an und lernt es vielleicht daraus. Das wäre rein datengetrieben. Wir haben aber gesehen, dass das nicht zielführend ist“, sagt Andrea Beck. „Deshalb zeigen wir jetzt nicht – bildlich gesprochen – nur die Videos, sondern geben auch die physikalischen Gesetzmäßigkeiten mit, zum Beispiel, dass die Schwerkraft immer nach unten zeigt oder man garantiert umfällt, wenn man sich mit mehr als 45 Grad in der Kurve neigt.“ Denn der Algorithmus habe keine Ahnung von der Welt, ergänzt Beck. Er müsse sich alle Informationen aus den Daten ziehen und das sei extrem teuer.
Baut man diese physikalischen oder mathematischen Randbedingungen beim Lernen bereits ein, lernt der Algorithmus sehr viel schneller und effizienter. „Dann kann er auch besser mit Situationen umgehen, die bisher unbekannt waren. Das bedeutet, dass ich mein physikalisches Wissen über das System mit meinem datengetriebenen Verfahren kombiniere“, erklärt Andrea Beck. Das funktioniert so, dass mehr mathematische Gleichungen als Nebenbedingungen in das Modell eingebaut werden. Dementsprechend groß ist dann jedoch auch der Rechenaufwand bei der Simulation, der nur noch mit sehr schnellen Hochleistungsrechnern – sogenannte Supercomputer – bewältigt werden kann.
Weltweit einzigartige Simulationssoftware
Da diese Hochleistungsrechner spezielle Algorithmen benötigen, hat Andrea Beck die Open Source Software FLEXI, einen vollständig reproduzierbaren Code für komplexe Strömungssimulationen, entwickelt. Er wurde als einer der besten Codes in Europa identifiziert und wird nun von ihr in einer Forschungsgruppe am European Center of Excellence for Exascale CFD (CEEC) weiterentwickelt.
Ein Strömungslöser ist die Software, die die Strömung am Computer simuliert.
Mit diesem Code ist es möglich, komplexe Strömungsprobleme effizient zu simulieren und die Genauigkeit der Simulationen signifikant zu verbessern. „Mit der Koppelung von unserem Strömungslöser und den Methoden des verstärkenden Lernens haben wir eine weltweit einzigartige Software.“ Damit, so hofft Andrea Beck, kann sie in ein paar Jahren nicht nur die Strömung an einem Detail eines Flugzeugs simulieren, sondern die Strömung am gesamten Flugzeug.
Dokumentation stärkt Vertrauen in Simulationen
Die Resultate sowie alle Metadaten aus den Simulationen werden in einer Datenbank gespeichert. So können auch andere Wissenschaftler*innen auf die Daten und Modelle zugreifen und damit arbeiten und weiterforschen. Denn wenn große Simulationen entwickelt werden, ist es für andere schwer, diese zu beurteilen, sie nachzuvollziehen und zu wiederholen. Zu einer Simulation gehören nicht nur die Software und die Einstellungen der Software, sondern auch noch viele vorbereitende Schritte und die anschließende Auswertung.
Denn auch bei der Auswertung kann man Fehler machen, da es verschiedene Möglichkeiten der Analyse und Bewertung gibt. Eine Auswertung der Simulationsdaten ist selbst wieder eine mathematische Operation, bei der verschiedene Modelle zum Einsatz kommen. „Die reproduzierbare Dokumentation des gesamten Workflows hilft bei der Beurteilung, ob eine Simulation und die Daten, die ich verwendet habe, belastbar sind oder nicht. Nur so können Simulationsergebnisse auch vertrauenswürdig sein“, sagt Andrea Beck. Das bringt nicht nur die Wissenschaft voran, sondern macht auch reale Anwendungen sicherer.
Manuela Mild | SimTech Science Communication
Zum Weiterlesen
Kurz, Ph. Offenhäuser, D. Viola, O. Shcherbakov, M. Resch, A. Beck (2022), Deep reinforcement learning for computational fluid dynamics on HPC systems, Journal of Computational Science, 65, 101884, https://doi.org/10.1016/j.jocs.2022.101884
Kurz, Marius, Philipp Offenhäuser, and Andrea Beck. "Deep reinforcement learning for turbulence modeling in large eddy simulations." International journal of heat and fluid flow 99 (2023): 109094. https://doi.org/10.1016/j.ijheatfluidflow.2022.109094
Beck, Andrea, David Flad, and Claus-Dieter Munz. "Deep neural networks for data-driven LES closure models." Journal of Computational Physics 398 (2019): 108910. https://doi.org/10.1016/j.jcp.2019.108910
Kempf, Daniel, et al. "GAL {\AE} XI: Solving complex compressible flows with high-order discontinuous Galerkin methods on accelerator-based systems." arXiv preprint arXiv:2404.12703 (2024). https://arxiv.org/abs/2404.12703
Über die Wissenschaftlerin
Bereits als Siebenjährige war Andrea Beck fasziniert davon, dass es Menschen gab, die Flugzeuge oder Raumschiffe bauen konnten, auch wenn der Auslöser dafür ein dramatisches Ereignis war: die Explosion der Raumfähre Challenger, die sie im Fernsehen mitverfolgt hatte. Ihre Begeisterung für Technik und Computer, Physik und Mathematik hat sich in der Schule und im Studium an der Universität Stuttgart und am Georgia Institute of Technology in den USA fortgesetzt. Für die Strömungsmechanik hat sie sich entschieden, weil diese vieles verbindet, was sie mag: Anwendungen im Bereich der Luft- und Raumfahrt, Mathematik, Informatik, Supercomputer, und sie kann viele neue Sachen ausprobieren, die ihr einfallen.
Seit 2022 ist sie Professorin für Numerische Methoden in der Strömungsmechanik und stellvertretende Direktorin des Instituts für Aerodynamik und Gasdynamik an der Universität Stuttgart. Bei SimTech koordiniert sie das Projektnetzwerk 1 (PN 1) „Data-Integrated Models and Methods for Multiphase Fluid Dynamics“. Darüber hinaus entwickelt sie in einer Forschungsgruppe des European Center of Excellence for Exascale CFD (CEEC) Codes für die numerische Strömungsdynamik, die in Exascale-Supercomputersystemen eingesetzt werden können.