Das Hauptziel des vorliegenden Projekts ist die Weiterentwicklung und Validierung einer neuen CFD-Methode (Computational Fluid Dynamics), die eine Kombination aus gitterfreien (Partikel) und gitterbasierten Techniken verwendet. Eine grundlegende Annahme dieses neuen Ansatzes ist die Zerlegung jeder physikalischen Größe in einen gitterbasierten (großskaligen) und einen feinskaligen Teil, wobei die großskaligen Teile auf dem Gitter aufgelöst und die feinskaligen Teile durch Partikel dargestellt werden. Die Dynamik der großen und feinen Skalen wird aus zwei gekoppelten Transportgleichungen berechnet, von denen eine auf dem Gitter gelöst wird, während die zweite die Lagrangesche gitterfreie Vortex-Partikel-Methode (VPM) verwendet.
InterTwin entwirft und implementiert den Prototypen einer interdisziplinären Digital Twin Engine (DTE). Dies ist eine Open-Source-Plattform, die generische Softwarekomponenten für die Modellierung und Simulation zur Integration anwendungsspezifischer Digitalen Zwillingen bereitstellt. Die Spezifikationen basieren auf einem im Projekt zu entwerfenden konzeptionellen Modell - der DTE Blueprint-Architektur. Diese orientiert sich an den Grundsätzen von offenen Standards und Interoperabilität. Das Ziel ist die Entwicklung eines gemeinsamen Ansatzes für die Implementierung von Digital Twins zu entwickeln, der über das gesamte Spektrum der wissenschaftlichen Disziplinen und darüber hinaus anwendbar ist.
Trotz stetiger Verbesserung der numerischen Wettervorhersagemodelle weisen diese immer noch systematische Fehler auf, die durch vereinfachte Darstellungen physikalischer Prozesse, Annahmen über lineares Verhalten und die Herausforderungen, alle verfügbaren Beobachtungsdaten zu integrieren, verursacht werden. Wetterdienste in aller Welt erkennen nun, dass die Beseitigung dieser Defizite durch den Einsatz künstlicher Intelligenz (KI) die Disziplin in den nächsten Jahrzehnten revolutionieren könnte. Dies erfordert ein grundlegendes Umdenken, das die Meteorologie viel stärker mit der Mathematik und Informatik verzahnt. TEEMLEAP wird diesen Kulturwandel durch eine Kooperation von Wissenschaftlern der KIT-Zentren Klima und Umwelt und MathSEE fördern, indem ein idealisiertes Testbed zur Erforschung des maschinellen Lernens in der Wettervorhersage eingerichtet wird. Im Gegensatz zu Wetterdiensten, welche sich naturgemäß auf Verbesserungen der numerischen Vorhersagemodelle in ihrer vollen Komplexität konzentrieren, beabsichtigt TEEMLEAP die Einsatzmöglichkeiten und den Nutzen von KI in diesem Testbed entlang der gesamten Prozesskette der Wettervorhersage zu evaluieren.
Herz-Kreislauf-Erkrankungen zählen zu den weltweit häufigsten Todesursachen: Jedes Jahr sterben in Deutschland über 300 000 Menschen an den Folgen. Rund die Hälfte dieser Todesfälle werden durch Herzrhythmusstörungen verursacht. Im europäischen Projekt MICROCARD, an dem das Karlsruher Institut für Technologie (KIT) beteiligt ist, entwickeln Forschende nun eine Simulationsplattform, die die elektrophysikalischen Signalübertragungen im Herzen digital abbilden kann. Die Computersimulationen sollen insbesondere zu einer verbesserten Diagnose und Therapie beitragen. Das KIT erhält für seine Beiträge im Rahmen des „European High-Performance Computing Joint Undertaking“ etwa 1,3 Millionen Euro.
Das primäre Ziel des Projektes ist die Etablierung einer integrierten landesweiten Rechen- und Dateninfrastruktur sowie die Steigerung der Effizienz und der Effektivität durch erstklassige Unterstützung der Wissenschaftler und Nutzer.
Das Helmholtz AI COmpute REssources Infrastrukturprojekt ist Teil des Helmholtz Inkubators “Information & Data Science” und dient der Bereitstellung von leistungsstarken Rechenressourcen für die Forschenden im Bereich künstlicher Intelligenz (KI) in der Helmholtz-Gemeinschaft. Technisch wird die KI-Hardware als Teil der Hochleistungsrechnersysteme JUWELS (Julich Supercomputing Centre) und HoreKa (KIT) an den beiden Zentren betrieben. Das SCC deckt dabei vornehmlich den prototypischen Entwicklungsbetrieb ab in dem neue Ansätze, Modelle und Verfahren entwickelt und erprobt werden können. HAICORE steht allen Mitgliedern der Helmholtz-Gemeinschaft im Bereich KI-Forschung offen.
Die Helmholtz AI Plattform ist ein Forschungsprojekt des Helmholtz Inkubators “Information & Data Science”. Die übergeordnete Mission der Plattform ist dabei die “Demokratisierung von KI für eine datengetriebene Zukunft” und ziehlt darauf ab einer möglich breiten Nutzendengruppe KI-Algorithmen und -Ansätze einfach handhabbar und ressourcenschonend zur Verfügung zu stellen. Die Helmholtz AI Plattform ist nach einem Rad-Speichen-Modell strukturiert, dass die sechs Forschungsfelder der Helmholtz-Gemeinschaft abdeckt. Das KIT ist dabei mit seiner Local Unit für den Themenkreis Energieforschung verantwortlich. In diesem Rahmen unterstützt das SCC Forschende mit einer Beratungseinheit bei der Umsetzung von KI-Forschungsvorhaben in der Erkundung neuer Ansätze zur Energieerzeugung, -verteilung und -speicherung.
Im Graduiertenkolleg Maßgeschneiderte Multiskalenmethoden für Computersimulationen von nanoskaligen Materialien untersuchen wir Probleme, die mit einzelnen Standardwerkzeugen der Computational Chemistry nicht zu bewältigen sind. Die Forschung ist in sieben Projekte gegliedert. Fünf Projekte adressieren wissenschaftliche Herausforderungen wie Reibung, Materialalterung, Materialdesign und biologische Funktion. In zwei weiteren Projekten werden neue Methoden und Werkzeugen der Mathematik und der Informatik für die speziellen Anforderungen dieser Anwendungen entwickelt und bereitgestellt. Das SCC ist an den Projekten P4, P5 und P6 beteiligt.
Das Projekt Simulierte Welten hat sich zum Ziel gesetzt, Schülerinnen und Schülern in Baden-Württemberg ein vertieftes kritisches Verständnis der Möglichkeiten und Grenzen von Computersimulationen zu vermitteln. Das Vorhaben wird gemeinsam vom Steinbuch Centre for Computing (SCC), dem Höchstleistungsrechenzentrum Stuttgart (HLRS) sowie der Universität Ulm getragen und arbeitet bereits mit mehreren Schulen in Baden-Württemberg zusammen.
CAMMP steht für Computational And Mathematical Modeling Program (Computergestütztes Mathematisches Modellierungsprogramm). Es ist ein außerschulisches Angebot des KIT für Schülerinnen und Schüler verschiedenen Alters. CAMMP will die gesellschaftliche Bedeutung von Mathematik und Simulationswissenschaften der Öffentlichkeit bewusst machen. Dazu steigen Schülerinnen und Schüler in verschiedenen Veranstaltungsformaten gemeinsam mit Lehrkräften aktiv in das Problemlösen mit Hilfe von mathematischer Modellierung und dem Einsatz von Computern ein und erforschen dabei reale Probleme aus Alltag, Industrie oder Forschung.
Das Pilotlab Exascale Earth System Modelling (PL-ExaESM) erforscht spezifische Konzepte um Erdsystemmodelle und ihre Workflows, auf zukünftigen Exascale-Supercomputern zur Anwendung zu bringen. Das Projekt ist in fünf Arbeitspakete gegliedert, welche mittels Co-Design zwischen Domänen-Wissenschaftlern und Informatikern die programmier- und datenwissenschaftlichen Herausforderungen dieser zukünftigen Höchstleistungsrechner adressieren. PL-ExaESM bietet eine neue Plattform für Forscher der Helmholtz-Gemeinschaft, um wissenschaftliche und technologische Konzepte für zukünftige Erdsystemmodelle und Datenanalysen zu entwickeln. Die Komplexität und Heterogenität der Exascale-Systeme, neue Software-Paradigmen für die nächste Generation von Erdsystemmodellen sowie grundlegend neue Konzepte für die Integration von Modellen und Daten sind erforderlich. Konkret werden in PL-ExaESM neue Lösungen für die Parallelisierung und das Scheduling von Modellkomponenten, die Handhabung und Bereitstellung großer Datenmengen und die nahtlose Integration von Informationsmanagementstrategien entlang der gesamten Prozesswertschöpfungskette von globalen Erdsystemsimulationen bis hin zu lokalen Wirkungsmodellen entwickelt. Zudem wird das Potenzial des maschinellen Lernens zur Optimierung dieser Aufgaben untersucht. PL-ExaESM wird als Inkubator für das Joint Lab EESM in der POF IV fungieren. Es wird die Zusammenarbeit zwischen den Forschungsbereichen und -zentren der Helmholtz-Gemeinschaft verbessern und dazu beitragen, die Helmholtz-Gemeinschaft als einen wichtigen Akteur in europäischen Flagship-Initiativen, wie ExtremeEarth, und anderen zu positionieren.
Development of an innovative measurement system based on P&DGNAA technology for environmental analysis including new evaluation algorithms.
Entwicklung einer innovativen Messanlage auf Grundlage der P&DGNAA sowie einer geeigneten Auswertemethodik für die Umweltanalytik.
Zukünftige exascale HPC-Systeme benötigen effiziente Datenmanagement-Methoden. Dabei sind die Lokalität der Daten und der effiziente Zugriff während einer Simulation von großer Bedeutung.
Das Steinbuch Centre for Computing betreibt Forschungsplattform Smart Data Innovation Lab (SDIL) am KIT. SDIL schafft die Voraussetzungen für die Spitzenforschung im Bereich Big Data ...