Computergestützte Geodynamik


Heutzutage ist die Computersimulation neben Beobachtung/Experiment und Theorie eine weitere Säule wissenschaftlicher Entdeckung. Das Hauptaugenmerk für Computerexperimente in der Geodynamik-Gruppe liegt auf der Simulation der konvektiven Prozesse im Erdmantel. Die Gleichungen der Fluiddynamik im Mantel (Erhaltung von Masse, Impuls und Energie) sind gut verstanden. Es gibt viele leistungsfähige numerische Methoden, um diese zu lösen. Die Simulation der Mantelkonvektion auf globaler Ebene mit angemessener Auflösung liegt jedoch außerhalb der Möglichkeiten selbst der fortschrittlichsten Computer. Diese Schwierigkeit ergibt sich aus der Natur der Mantelkonvektion. Es erfordert Aspekte zu berücksichtigen wie beispielsweise:

(1) Skalendisparität, d.h. kleine Strukturen müssen in einem globalen konvektiven System aufgelöst werden, (2) 3D-Variationen in Rheologie und Zusammensetzung, (3) komplexe thermodynamische Eigenschaften von Mantelmineralen und (4) die Rückkopplung zwischen dem dynamischen Strömungssystem und seinen Grenzflächen (der Erdoberfläche und der Kern-Mantel-Grenze).

Weitere Schwierigkeiten ergeben sich, weil einige Prozesse im mikroskopischen Maßstab aktiv sind, beispielsweise die Entwicklung der Mineralkorngröße. Selbst im besten Fall kann der Effekt dieser Prozesse auf die makroskopischen Strömungen oft nur durch Parametrisierung berücksichtigt werden. Dies führt zu einem komplexen Bild des Mantels, in dem unterschiedliche Längen- und Zeitskalen in numerischen Simulationen aufgelöst werden müssen.

Aus diesem Grund ist High-Performance Computing (HPC) ein wesentliches Element der Spitzenforschung in der Geodynamik.

Stromlinien unter dem Himalaya-Gebirge, Momentaufnahme eines globalen Konvektionsmodells, simuliert mit hierarchischen hybriden Gittern (HHG) Abb. 1, Bauer et al. 2020, Software for Exascale Computing - SPPEXA 2016-2019


Projekte und High-Performance Computing


Logo TerraNeo-Project https://terraneo.fau.de/

Seit ihrem Anfang 2003, war die Münchner Geodynamik-Gruppe aktiv an einer Reihe von HPC- und IT-Projekten beteiligt. Daher besteht eine enge Zusammenarbeit mit der GeoComputing-Gruppe. Die gemeinsame Arbeit umfasst Forschung an stereoskopischer Visualisierung (GeoWall), Datenspeicherung und -verwaltung, sowie numerische und Parallelisierungstechniken, und die Konzeption von Rechenclustern für das "Capacity Computing". Die gegenwärtigen Bemühungen konzentrieren sich auf die Realisierung eines Software-Frameworks für Erdmantelsimulationen im extremen Maßstab. Das Framework ist in der Lage, die Leistung von Exascale-Supercomputern der nächsten Generation (d.h. 1018 Gleitkommaoperationen pro Sekunde werden erreicht) voll auszuschöpfen. Erste spannende Ergebnisse wurden im Projekt TerraNeo erzielt, das vom Schwerpunktprogramm 1648 "Software for Exascale Computing" (SPPEXA) der Deutschen Forschungsgemeinschaft (DFG) unterstützt wird. Mit einer massiv parallelen Multigrid-Methode, die auf dem Paradigma der hierarchischen hybriden Gitter (HHG) basiert und im Open-Source-Framework Hybrid Tetrahedral Grids (HyTeG) implementiert ist, sind Berechnungen mit einer beispiellosen Auflösung des Erdmantels möglich. Die Rechengitter unterteilen den gesamten Mantel in Domänen mit einem Volumen von etwa 1 km3 (vergleichen Sie dies mit dem Volumen des Mantels von etwa 9,06 x 1012 km3). Infolgedessen wird bei jedem Zeitschritt einer Simulation ein enorm großes System mit über einer Billion (1012) Freiheitsgraden gelöst. Dies zeigt, warum die Mantelkonvektion als sogenanntes Grand-Challenge-Problem angesehen wird. Der Erfolg des TerraNeo-Projekts basiert auf einer langfristigen Zusammenarbeit zwischen den Gruppen Geophysik (LMU München), Numerische Mathematik (Prof. Barbara Wohlmuth, TU München) und Systemsimulation (Prof. Ulrich Rüde, FAU Erlangen-Nürnberg).


Rechnerinfrastruktur


SuperMUC-NG am LRZ Foto: Veronika Hohenegger, LRZ

Um Software zu testen und routinemäßig geophysikalische Simulationen im mittleren Maßstab durchzuführen, betreibt die GeoComputing-Gruppe eine hervorragende Rechnerinfrastruktur. Im Zentrum steht hierbei der Münchner Tektonische Hochleistungssimulator (TETHYS). Daher kann ein Großteil dieses "Capacity Computing" betriebsintern durchgeführt werden. Für das "Capability Computing", d. h. für äußerst anspruchsvolle Simulationen, erhalten wir vom Leibniz-Rechenzentrum (LRZ) Zugang zu High-End-Supercomputing-Einrichtungen, insbesondere zu seinem derzeitigem Flaggschiff-Supercomputer SuperMUC-NG. Insgesamt stellt dies sicher, dass der wissenschaftliche Fortschritt in unserer Gruppe durch weltweit führende Fachkenntnis in der Entwicklung und Anwendung von Rechenressourcen unterstützt wird.