Master- und Bacherlorarbeiten

sprungmarken_marker_14322

Masterarbeit: Performanzanalyse von Datendiensten, -strukturen und -schnittstellen zur Vorbereitung einer vernetzten Geodateninfrastruktur

Ein Trainingsblock aus den Klimadaten für den Autoencoder
Ein Trainingsblock aus den Klimadaten für den Autoencoder

Am Institut für Meteorologie und Klimaforschung – Atmosphärische Umweltforschung (IMK-IFU) am Campus Alpin des Karlsruher Instituts für Technologie (KIT) in Garmisch- Partenkirchen wird ab sofort in Kooperation mit dem Steinbuch Centre for Computing (SCC) ein/e Kandidat/in für eine Masterarbeit gesucht.

Themenbeschreibung

An den vier Instituten für Meteorologie und Klimaforschung werden eine Vielzahl von Beobachtungs-, Modell- und Fernerkundungsdaten genutzt. Im Rahmen der AG Datenmanagement und der IFU Data Initiative werden hierfür Software-Lösungen implementiert und weiterentwickelt, die den Wissenschaftler/innen die nutzerfreundliche und reibungslose Integration von solchen Forschungsdaten in ihre täglichen Workflows ermöglichen sollen. Dies soll in Zukunft auch Instituts-übergreifend möglich sein, um mittelfristig eine vernetzte Forschungsdateninfrastruktur umzusetzen. Als zentraler Dienst wird hierfür ein THREDDS-Data-Server (TDS) der UCAR/NCAR genutzt, der den Zugriff auf Forschungsdaten sowohl über OGC-Konforme Schnittstellen (WCS, SOS, etc.), wie auch OPeNDAP ermöglicht. Die Performanz der Datenintegration über den TDS hängt dabei maßgeblich von der unterliegenden Datenstruktur sowie der genutzten Schnittstellen ab. Hierbei müssen insbesondere für umfangreiche Modell- und Fernerkundungsdaten bereits im Vorfeld eine optimale Integrationsstrategie identifiziert und festgelegt werden, weil kleinste Änderungen z.B. an der Datenformatierung große Auswirkungen auf die benötigten Zugriffszeiten bewirken können. Die Aufgabe ist daher die Entwicklung und Durchführung einer Performanzanalyse, mit deren Hilfe eine optimale Strukturierung und Eingliederung von großen Geodaten in die Datenstruktur der IMKs und des SCC identifiziert werden kann.

Eintrittstermin: frühestmöglich

Forschungsfragen

  • Wie müssen Geodaten strukturiert werden, um einen möglichst performanten Zugriff unter verschiedenen Nutzungsszenarien sicherzustellen?
  • Wie müssen umfangreiche Modell- oder Fernerkundungsdaten aggregiert werden, um reibungslos in wissenschaftliche Workflows integriert zu werden?
  • Wie unterscheidet sich die Zugriffsperformanz von verschiedenen Schnittstellen, die über den THREDDS-Data-Server bereitgestellt werden?

Anforderungen

Die Ausschreibung richtet sich an Studierende aus den Bereichen (Geo-)Informatik, MINT oder vergleichbaren Fachrichtungen mit fundierten Programmierkenntnissen (Python, Matlab, etc.).

Organisationseinheiten

  • Steinbuch Centre for Computing (SCC)
  • Institut für Meteorologie und Klimaforschung – Atmosphärische Umweltforschung (IMK-IFU)

Betreuer

  • Informatik: Prof. Dr. Achim Streit
  • Klimawissenschaften: Prof. Dr. Hans Peter Schmidt
  • Klimawissenschaften: Dr. Christof Lorenz
  • Informatik und Klimawissenschaften: Dr. Ugur Cayoglu

Kontakt

Masterarbeit: AI/ML-basierte Unterstützung der Satellitenerkundung

Es existieren unterschiedliche Methoden zur Erfassung von aktuellen Wetterdaten. Durch die Zusammenführung von punktuellen und flächendeckenden Messungen kann eine genaueres Bild der aktuellen Atmosphäre gemacht werden. Im Rahmen dieser Arbeit sollen Satellitenmessungen und lokale Beobachtungen zusammengeführt werden, um die lokale Wolkenbedeckung und -art besser zu erfassen.

Themenbeschreibung

Das Klima der Erde korrekt zu simulieren ist ein sehr schwieriges Unterfangen. Klimamodelle gehören zu der Kategorie der chaotischen Systeme [0] d.h. sie reagieren sensitiv auf Unsicherheiten in der Initialkonfiguration [1]. Es existieren sehr viele Einflussgrößen, welche die korrekte Vorhersage des Klimas erschweren können. Eines dieser Einflussgrößen ist die korrekte Erfassung der Anfangsbedingungen zu Simulationsbeginn (auch Initialkonfiguration genannt). Es existieren verschiedene Arten von Messungen zur Erfassung des aktuellen Klimas: Es existieren u.a. punktuelle Messungen wie lokale Bodenmessungen und flächendeckende Fernerkundungsmessungen wie Satellitenmeßungen.

Im Rahmen dieser Arbeit soll untersucht werden, wie vereinzelte lokale Bodenmessungen durch flächendeckende  Satellitenmessungen ergänzt werden können um ein genaueres Bild der aktuellen Bedingungen an Standorten ohne lokaler Bodenbeobachtungen zu bekommen. Hierbei sollen Maschinelle Lernverfahren eingesetzt werden, um die lokale Wolkenbedeckung und -art zu erlernen.

Daten und Prozessierung

  • Es sollen Daten vom Sentinel 2 Satelliten [2] verwendet werden.
  • Lokale Messungen über aktuelle Wolkenbedeckung werden vom IMK-ASF bereitgestellt.
  • Prozessierung wir dauf den aktuellen Hochleistungsrechern des KIT stattfinden.

Aufgaben

  • Erstellung eines Datensatzes (basierend auf Sentinel 2 Daten) zum trainieren und validieren
  • Progressive Klassifikation der Wolkenbedeckung von binärer zur mehrstufiger Klassifikation der Wolkenbedeckung und -art.

Betreuer

Kontakt

Cayoglu∂kit.edu

Referenzen

[0] de.wikipedia.org/wiki/Chaosforschung
[1] de.wikipedia.org/wiki/Lorenz-Attraktor
[2] sentinel.esa.int/web/sentinel/missions/sentinel-2
 

Masterarbeit: AI/ML-basierte Unterstützung von Klimasimulationen

Klimamodelle sind chaotische Systeme und die Bestimmung der Initialkonfiguration ist wichtig für die erfolgreiche Vorhersage von Klimaentwicklungen. Einige dieser Variablen sind leichter zu erfassen (z.B. die Temperatur) und andere wiederum etwas schwieriger (z.B. Ozon). Im Rahmen dieser Arbeit soll untersucht werden, ob maschinelle Lernverfahren eingesetzt werden können um vom Ersteren zum Letzteren zu schließen.

Themenbeschreibung

Das Klima der Erde korrekt zu simulieren ist ein sehr schwieriges Unterfangen. Klimamodelle gehören zu der Kategorie der chaotischen Systeme [0] d.h. sie reagieren sensitiv auf Unsicherheiten in der Initialkonfiguration [1]. Es existieren sehr viele Einflussgrößen, welche die korrekte Vorhersage des Klimas erschweren können. Eines dieser Einflussgrößen ist die korrekte Erfassung der Anfangsbedingungen zu Simulationsbeginn (auch Initialkonfiguration genannt). Manche Variablen sind sehr einfach und genau zu erfassen (z.B. Temperatur). Andere Variablen, wie z.B. Konzentrationsmengen von Ozon in der Atmosphäre,  sind schwieriger und aufwendiger in der Erfassung.

Im Rahmen dieser Arbeit soll untersucht werden, ob eine gute Initialkonfiguration für Ozon anhand anderer Variablen wie z.B. der Temperatur oder potentiellen Vortizität berechnet werden kann. Zur Identifikation dieser Zusammenhänge sollen verschiedene supervised- und unsupervised Lernverfahren aus dem Bereich Machine Learning bzw. Artifical Intelligence verwendet werden. 

Daten & Prozessierung

  • Die Initialisierungsdaten sollen aus den ERA5 Daten [2] gewonnen werden.
  • Als Klimamodell wird ICON verwendet [3].
  • Zunächst soll die Stratosphäre betrachtet werden, weil hier weniger Turbulenzen in der Atmosphäre existieren und somit die Prozesse einfacher sind.
  • Prozessierung wir dauf den aktuellen Hochleistungsrechern des KIT stattfinden.

Aufgaben

  • Erstellung eines Datensatzes (basierend auf ERA5 Daten) zum trainieren und validieren
  • Erstellung eines ML-Verfahrens zur Berechnung der Initialkonfiguration von Ozon
  • Definition von Gütekriterien für die Initialkonfiguration

Betreuer

Informatik: Prof. Dr. Achim Streit
Klimawissenschaften: Prof. Dr. Peter Braesicke
Informatik und Klimawissenschaften: Dr. Ugur Cayoglu

Kontakt

Cayoglu∂kit.edu

Referenzen

- [0] de.wikipedia.org/wiki/Chaosforschung
- [1] de.wikipedia.org/wiki/Lorenz-Attraktor
- [2] cds.climate.copernicus.eu/cdsapp#!/dataset/reanalysis-era5-pressure-levels
- [3] code.mpimet.mpg.de/projects/iconpublic