Laufende Projekte
AI-enhanced differentiable Ray Tracer for Irradiation-prediction in Solar Tower Digital Twins - ARTIST
Solarturmkraftwerke spielen eine Schlüsselrolle bei der Erleichterung der laufenden Energiewende, da sie regelbaren klimaneutralen Strom und direkte Wärme für chemische Prozesse liefern. In dieser Arbeit entwickeln wir einen heliostatspezifischen differenzierbaren Raytracer, der den Energietransport am Solarturm datengesteuert modellieren kann. Dies ermöglicht eine Rekonstruktion der Heliostatoberfläche und verbessert so die Vorhersage der Bestrahlungsstärke drastisch. Darüber hinaus reduziert ein solcher Raytracer auch die erforderliche Datenmenge für die Ausrichtungskalibrierung drastisch. Damit ist das Lernen für einen vollständig KI-betriebenen Solarturm prinzipiell machbar. Das angestrebte Ziel ist die Entwicklung eines ganzheitlichen KI-gestützten digitalen Zwillings des Solarkraftwerks für Design, Steuerung, Vorhersage und Diagnose auf Basis des physikalisch differenzierbaren Raytracers. Alle Betriebsparameter im Solarfeld, die den Energietransport beeinflussen, können damit optimiert werden. Erstmals ist eine Gradienten-basierte Feldgestaltung, Zielpunktsteuerung und Ist-Zustandsdiagnose möglich. Durch die Erweiterung um KI-basierte Optimierungstechniken und Reinforcement-Learning-Algorithmen soll es möglich sein, reale, dynamische Umgebungsbedingungen mit geringer Latenz auf den Zwilling abzubilden. Schließlich sind aufgrund der vollständigen Differenzierbarkeit auch visuelle Erklärungen für die operativen Handlungsvorhersagen möglich. Die vorgeschlagene KI-gestützte digitale Zwillingsumgebung wird in einem realen Kraftwerk in Jülich verifiziert. Seine Gründung markiert einen bedeutenden Schritt in Richtung eines vollautomatischen Solarturmkraftwerks.
bwHPC-S5: Scientific Simulation and Storage Support Services Phase 3 - bwHPC-S5 Phase 3
Zusammen mit den gewonnenen Erkenntnissen, Bewertungen und Empfehlungen sollen die aktuellen Herausforderungen und definierten Handlungsfelder des Rahmenkonzepts der Universitäten des Landes Baden-Württemberg für das HPC und DIC im Zeitraum
2025 bis 2032 durch folgende Maßnahmen im Projekt konkretisiert werden:
• Weiterentwicklung der Wissenschaftsunterstützung bzgl. Kompetenzen zur Unterstützung neuartiger
System- und Methodekonzepte (KI, ML oder Quantencomputing), Vernetzung mit Methodenfor-
schung, ganzheitliche Bedarfsanalysen und Unterstützungsstrategien (z.B. Onboarding)
• Steigerung der Energieeffizienz durch Sensibilisierung sowie Untersuchung und Einsatz neuer Be-
triebsmodelle und Workflows inkl. optimierter Software
• Erprobung und flexible Integration neuer Systemkomponenten und -architekturen, Ressourcen (z.B.
Cloud) sowie Virtualisierung- und Containerisierungslösungen
• Umsetzung neue Software-Strategien (z.B. Nachhaltigkeit und Entwicklungsprozesse)
• Ausbau der Funktionalitäten der baden-württembergischen Datenföderation (z.B. Daten-Transfer-
Service)
• Umsetzung von Konzepten beim Umgang mit sensiblen Daten und zur Ausprägung einer digitalen
Souveränität
• Vernetzung und Kooperation mit anderen Forschungsinfrastrukturen
ICON-SmART
Kontakt: Jörg Meyer Förderung: Hans-Ertel-Zentrum für Wetterforschung
Das Projekt "ICON-SmART" befasst sich mit der Rolle von Aerosolen und atmosphärischer Chemie für die Simulation von saisonalen bis dekadischen Klimaschwankungen und -änderungen. Zu diesem Zweck wird das Projekt die Fähigkeiten des gekoppelten Kompositions-, Wetter- und Klimamodellierungssystems ICON-ART (ICON, ikosaedrisches nicht-hydrostatisches Modell - entwickelt von DWD, MPI-M und DKRZ mit dem
Atmosphärenzusammensetzungsmodul ART, Aerosole und reaktive Spurengase - entwickelt vom KIT) für sonale bis dekadische Vorhersagen und Klimaprojektionen in nahtlosen globalen bis regionalen Modellkonfigurationen mit ICON-Seamless-ART (ICON-SmART) untersuchen.
Auf der Grundlage früherer Arbeit ist die Chemie ein vielversprechender Kandidat für eine Beschleunigung durch maschinelles Lernen. Darüber hinaus wird das Projekt Ansätze des maschinellen Lernens für andere Prozesse untersuchen. Das ICON-SmART-Modellsystem wird Wissenschaftlern, Prognostikern und politischen Entscheidungsträgern ein neuartiges Instrument zur Untersuchung der atmosphärischen Zusammensetzung in einem Klima zu untersuchen, und ermöglicht es uns, Fragen zu beantworten, die bisher unerreichbar waren.
Artificial intelligence for the Simulation of Severe AccidentS - ASSAS
The ASSAS project aims at developing a proof-of-concept SA (severe accident) simulator based on ASTEC (Accident Source Term Evaluation Code). The prototype basic-principle simulator will model a simplified generic Western-type pressurized light water reactor (PWR). It will have a graphical user interface to control the simulation and visualize the results. It will run in real-time and even much faster for some phases of the accident. The prototype will be able to show the main phenomena occurring during a SA, including in-vessel and ex-vessel phases. It is meant to train students, nuclear energy professionals and non-specialists.
In addition to its direct use, the prototype will demonstrate the feasibility of developing different types of fast-running SA simulators, while keeping the accuracy of the underlying physical models. Thus, different computational solutions will be explored in parallel. Code optimisation and parallelisation will be implemented. Beside these reliable techniques, different machine-learning methods will be tested to develop fast surrogate models. This alternate path is riskier, but it could drastically enhance the performances of the code. A comprehensive review of ASTEC's structure and available algorithms will be performed to define the most relevant modelling strategies, which may include the replacement of specific calculations steps, entire modules of ASTEC or more global surrogate models. Solutions will be explored to extend the models developed for the PWR simulator to other reactor types and SA codes. The training data-base of SA sequences used for machine-learning will be made openly available. Developing an enhanced version of ASTEC and interfacing it with a commercial simulation environment will make it possible for the industry to develop engineering and full-scale simulators in the future. These can be used to design SA management guidelines, to develop new safety systems and to train operators to use them.
Daten und Dienste zur Unterstützung von Meeres- und Süßwasserwissenschaftlern sowie Interessensgruppen - AquaINFRA
Das AquaINFRA-Projekt zielt darauf ab, eine virtuelle Umgebung zu entwickeln, die mit multidisziplinären FAIR-Daten und -Diensten ausgestattet ist, um Meeres- und Süßwasserwissenschaftler und Interessengruppen bei der Wiederherstellung gesunder Ozeane, Meere, Küsten- und Binnengewässer zu unterstützen. Die virtuelle AquaINFRA-Umgebung wird es den Zielakteuren ermöglichen, Forschungsdaten und andere digitale Forschungsobjekte aus ihrer eigenen Disziplin zu speichern, gemeinsam zu nutzen, darauf zuzugreifen, sie zu analysieren und zu verarbeiten, und zwar über Forschungsinfrastrukturen, Disziplinen und Landesgrenzen hinweg, indem sie EOSC und die anderen bestehenden operativen Datenräume nutzt. AquaINFRA unterstützt nicht nur die laufende Entwicklung der EOSC als übergreifende Forschungsinfrastruktur, sondern befasst sich auch mit der spezifischen Notwendigkeit, Forschern aus dem Meeres- und Süßwasserbereich die Möglichkeit zu geben, über diese beiden Bereiche hinweg zu arbeiten und zusammenzuarbeiten.
(Übersetzt mit DeepL.com)
Entwicklung einer InfraStruktur zum dAtenBasiErten Lernen in den Umweltwissenschaften - ISABEL
Laufzeit: 01.12.2022 - 30.11.2025
Digital verfügbare Datensätze in der terrestrischen Wasser- und Umweltforschung werden immer zahlreicher und umfangreicher, sind allerdings oft nicht ohne Weiteres zugänglich und wissenschaftlich verwendbar. Häufig sind sie unzureichend mit Metadaten beschrieben und in unterschiedlichsten Datenformaten abgelegt, dazu oftmals nicht in Datenportalen/-repositorien, sondern auf lokalen Speichermedien vorgehalten. Basierend auf der in einem Vorgängerprojekt entwickelten virtuellen Forschungsumgebung VFOR-WaTer ist es das Ziel von ISABEL, dieses Datenangebot in einem Webportal verfügbar zu machen. Hier sollen Umweltwissenschaftler auf Daten aus unterschiedlichen Quellen wie z.B. Landesämtern oder Hochschulprojekten einfach und schnell zugreifen, aber auch eigene Daten teilen können. Zusätzlich sind Schnittstellen zu bestehenden Datenportalen geplant, damit bereits veröffentlichte Datensätze mit einbezogen werden können. Mithilfe integrierter Werkzeuge sollen diese Daten leicht skaliert werden und in einem einheitlichen Format verfügbar sein. Außerdem stehen Analysewerkzeuge für weitere Auswertungen zur Verfügung. Diese werden vom Entwicklerteam beständig für den Bedarf der Community erweitert, können aber auch direkt von Nutzern beigetragen werden. Ein leichtes Abspeichern der Analyseschritte und verwendeten Werkzeuge macht die Berechnungen reproduzierbar, zudem wird durch die Anbindung an vorhandene Datenrepositorien die Publikation eigener Daten vereinfacht. Damit adressiert ISABEL den Bedarf von Forschenden aus den Wasser- und Umweltwissenschaften, Daten nicht nur aufzufinden und darauf zugreifen zu können, sondern mit standardisierten Werkzeugen für reproduzierbare Datenanalyseschritte effizient datengetrieben zu lernen.
Mehr
DAPHONA
In der Nanooptik beschäftigen wir uns, unter anderem, mit den optischen Eigenschaften von Strukturen mit einer räumlichen Ausdehnung vergleichbar oder kleiner als der Wellenlänge. Diese Streuer haben viele Anwendungen z.B. in der Bildgebung, in Sensoren oder auch in Quantentechnologien. Alle optischen
Eigenschaften eines Streuers werden hierbei durch dessen T-Matrix erfasst. Diese T-Matrix beschreibt, wie ein Beleuchtungsfeld in ein Streufeld konvertiert wird. T-Matrizen sind die Basis zur Beschreibung komplexer nanooptischer Systeme. Aktuell werden diesen T-Matrizen immer wieder neu berechnet und nicht systematisch genutzt. Das verschwendet Rechenressourcen und erlaubt auch nicht, Fragestellungen zu adressieren, die auf der Basis dieser Daten beantwortbar wären. DAPHONA will diesen Mangel beheben. Wir werden Technologien bereitstellen, mit denen die geometrischen und Materialeigenschaften eines Objektes und dessen optische Eigenschaften, ausgedrückt durch die T-Matrix, in einer einheitlichen Datenstruktur zusammengeführt werden. Diese Daten werden
systematisch genutzt, um die T-Matrix aus dem Datensatz für ein gegebenes Objekt zu extrahieren. Auch wollen wir Objekte identifizieren, die vordefiniert optische Eigenschaften ausgedrückt durch eine T-Matrix besitzen. Entlang dieser Ansätze werden wir viele neuartige Fragestellungen beantworten, die erst durch den hier formulierten datengetriebenen Ansatz adressiert werden können. Wir planen im Rahmen von DAPHONA wissenschaftlichen Nachwuchs auf verschiedenen Qualifikationsstufen auszubilden und werden unseren Ansatz in der Lehre verankern. Wir haben die Community eingeladen, uns in diesem Projekt zu begleiten. Wir planen, die Datenstruktur mit der Community abzustimmen und im Rahmen von Workshops die vorhandenen Daten zu diskutieren und zur Verfügung stehende Methoden zu deren Nutzung zu verbreiten. Unser Konzept ist offen, basiert auf den FAIR Prinzipien und wird nachhaltig einen Nutzen der gesamten Community bringen.
Skills for the European Open Science Commons: Creating a Training Ecosystem for Open and FAIR Science - Skills4EOSC
Skills4EOSC bringt führende Experten zusammen aus nationalen, regionalen, institutionellen und thematischen Open Science und Datenkompetenzzentren aus 18 europäischen Ländern mit dem Ziel, die derzeitige Trainings- und Ausbildungslandschaft zu vereinheitlichen in ein gemeinsames Europa-übergreifendes Ökosystem, um Forschende und Datenspezialisten aus Europa beschleunigt auf den Gebieten FAIR Open Data, datenintensive Wissenschaft und wissenschaftliches Datenmanagement auszubilden.
iMagine
iMagine ist ein von der EU gefördertes Projekt, das ein Portfolio von frei nutzbaren Bilddatensätzen, leistungsstarken Bildanalysewerkzeugen, die mit mit künstlicher Intelligenz (KI) und Best-Practice-Dokumente für die wissenschaftliche Bildanalyse. Diese Dienste und Materialien ermöglichen eine bessere und effizientere Verarbeitung und Analyse von Bilddaten in der Meeres- und Süßwasserforschung, die für das übergreifende Thema 'Gesunde Ozeane, Meere, Küsten- und Binnengewässer' relevant sind.
Artificial Intelligence for the European Open Science Cloud - AI4EOSC
Laufzeit: 01.09.2022 - 31.08.2025
Projektseite: ai4eosc.eu Das Projekt AI4EOSC (Artificial Intelligence for the European Open Science Cloud) ist ein von der EU finanziertes Projekt, das eine Reihe von erweiterten und fortschrittliche Dienste für die Entwicklung von AI/ML/DL-Modellen und Anwendungen in der European Open Science Cloud (EOSC) zur Verfügung stellt. Diese Dienste sind in einer umfassenden Plattform gebündelt, die moderne Funktionen wie verteiltes, föderiertes und geteiltes Lernen, neuartige Provenance-Metadaten für KI/ML/DL-Modelle sowie ereignisgesteuerte Datenverarbeitungsdienste. Das Projekt baut auf den Ergebnissen der DEEP-Hybrid-DataCloud und der EOSC-Rechnerplattform auf.
Entwicklung und Validierung eines hybriden Gitter-/Partikelverfahrens für turbulente Strömungen unterstützt durch Hochleistungsberechnungen mit OpenFOAM - hGVtSOF
Das Hauptziel des vorliegenden Projekts ist die Weiterentwicklung und Validierung einer neuen CFD-Methode (Computational Fluid Dynamics), die eine Kombination aus gitterfreien (Partikel) und gitterbasierten Techniken verwendet. Eine grundlegende Annahme dieses neuen Ansatzes ist die Zerlegung jeder physikalischen Größe in einen gitterbasierten (großskaligen) und einen feinskaligen Teil, wobei die großskaligen Teile auf dem Gitter aufgelöst und die feinskaligen Teile durch Partikel dargestellt werden. Die Dynamik der großen und feinen Skalen wird aus zwei gekoppelten Transportgleichungen berechnet, von denen eine auf dem Gitter gelöst wird, während die zweite die Lagrangesche gitterfreie Vortex-Partikel-Methode (VPM) verwendet.
InterTwin
InterTwin entwirft und implementiert den Prototypen einer interdisziplinären Digital Twin Engine (DTE). Dies ist eine Open-Source-Plattform, die generische Softwarekomponenten für die Modellierung und Simulation zur Integration anwendungsspezifischer Digitalen Zwillingen bereitstellt. Die Spezifikationen basieren auf einem im Projekt zu entwerfenden konzeptionellen Modell - der DTE Blueprint-Architektur. Diese orientiert sich an den Grundsätzen von offenen Standards und Interoperabilität. Das Ziel ist die Entwicklung eines gemeinsamen Ansatzes für die Implementierung von Digital Twins zu entwickeln, der über das gesamte Spektrum der wissenschaftlichen Disziplinen und darüber hinaus anwendbar ist.
Gaia-X für den Innovationscampus Mobilität der Zukunft - Gaia-X4ICM
Gaia-X ist eine europäische Initiative, die eine sichere und vertrauenswürdige Plattform für den Datenaustausch und die Zusammenarbeit zwischen verschiedenen Branchen und Sektoren in Europa schaffen will. Ein Hauptziel der Gaia-X4ICM-Forschungsinitiative für den Innovationscampus Future Mobility (ICM) ist die Schaffung einer grundlegenden Dateninfrastruktur mit allen erforderlichen Hardware- und Softwarekomponenten. Diese spielt eine wichtige Rolle bei der Verbindung und Zusammenarbeit verschiedener am industriellen Produktionsprozess beteiligter Sektoren. Das SCC implementiert und betreibt diese Cloud-Infrastruktur auf eigener Hardware im eigenen Rechenzentrum. Alle Partner erhalten so die volle Kontrolle über die digitale Infrastruktur sowie genutzte Daten, um eine weitreichende Datenhoheit, Datenschutz und Sicherheit zu gewährleisten.
Materialisierte Heiligkeit - toRoll
Im Projekt "Materialisierte Heiligkeit" werden Torarollen als ein außerordentliches kodikologisches, theologisches und soziales Phänomen untersucht. Anders als bei beispielsweise Bibelkopien ist die Abschrift der heiligen Schriftrollen bereits seit der Antike durch strenge Regulierungen bestimmt und wird durch eine reiche Kommentarliteratur ergänzt.
Gemeinsam mit Expertinnen und Experten der Judaistik, der Materialforschung und der Sozialwissenschaften möchten wir einen digitalen Wissensspeicher aufbauen, der der Vielschichtigkeit dieses Forschungsgegenstandes gerecht wird. Die jüdische Schreiberliteratur mit englischer Übersetzung, Materialanalysen, paläographische Untersuchungen an mittelalterlichen Torarollen sowie Interview- und Filmmaterial über Schreiber / Schreiberinnen der heutigen Zeit sollen in einer einmaligen Sammlung zusammenkommen und erstmals interdisziplinär untersucht werden. Zusätzlich soll eine zu entwickelnde 'virtuelle Torarolle' kleinste paläographische Details der Schrift und ihre Bedeutung im kulturellen Gedächtnis aufdecken.
Metaphern der Religion - SFB1475
Der an der Ruhr-Universität Bochum (RUB) angesiedelte SFB 1475 möchte den religiösen Gebrauch von Metaphern über Zeiten und Kulturen hinweg verstehen und methodisch erfassen. Dazu untersuchen die Teilprojekte eine Vielzahl von Schriften aus Christentum, Islam, Judentum, Zoroastrismus, Jainismus, Buddhismus und Daoismus, die aus Europa, dem Nahen und Mittleren Osten sowie Süd-, Zentral- und Ostasien stammen und die Zeitspanne von 3000 v. Chr. bis heute umfassen. Erstmals werden in durch diesen Verbund vergleichende Studien in einzigartigem Umfang ermöglicht.
Das SCC leitet im Sonderforschungsbereich gemeinsam mit den Kolleginnen und Kollegen des Centrum für Religionswissenschaftliche Studien (CERES) und der RUB das Informationsinfrastrukturprojekt „Metapher-Basislager“, in dem die digitale Dateninfrastruktur für alle Teilprojekte entwickelt wird. Zentrale Komponente wird ein Forschungsdatenrepositorium mit modernsten Annotations-, Analyse- und Visualisierungswerkzeugen für die geisteswissenschaftlichen Daten.
Helmholtz Platform for Research Software Engineering - Preparatory Study (HiRSE_PS)
The HiRSE concept sees the establishment of central activities in RSE and the targeted sustainable funding of strategically important codes by so-called Community Software Infrastructure (CSI) groups as mutually supportive aspects of a single entity.
Zukunftsfähige Konzepte für die Campusnetze der Hochschulen in Baden-Württemberg - bwCampusnetz
Im Projekt bwCampusnetz arbeiten mehrere Universitäten zusammen, um die Campusnetze zu beleuchten. Es sollen zukunftsfähige Konzepte gefunden und deren praktische Umsetzbarkeit durch prototypische Implementierungen untersucht und demonstriert werden.
PUNCH4NFDI
PUNCH4NFDI ist das NFDI-Konsortium für Teilchen-, Astro-, Astroteilchen-, Hadronen- und Kernphysik, das rund 9.000 promovierte Wissenschaftlerinnen und Wissenschaftler aus Universitäten, der Max-Planck-Gesellschaft, der Leibniz-Gemeinschaft und der Helmholtz-Gemeinschaft in Deutschland vertritt. Die PUNCH-Physik befasst sich mit den grundlegenden Bestandteilen der Materie und ihren Wechselwirkungen sowie mit ihrer Rolle bei der Entstehung der größten Strukturen im Universum – Sterne und Galaxien. Die Errungenschaften der PUNCH-Wissenschaft reichen von der Entdeckung des Higgs-Bosons über die Installation eines 1-Kubikkilometer-Teilchendetektors zum Neutrinonachweis im antarktischen Eis bis hin zum Nachweis des Quark-Gluon-Plasmas bei Schwerionenkollisionen und dem ersten Bild des schwarzen Lochs im Herzen der Milchstraße überhaupt.
Das Hauptziel von PUNCH4NFDI ist der Aufbau einer föderierten und „FAIR"en-Wissenschaftsdatenplattform, die die notwendigen Infrastrukturen und Schnittstellen für den Zugang zu und die Nutzung von Daten und Rechenressourcen der beteiligten Gemeinschaften und darüber hinaus bietet. Das SCC übernimmt dabei eine führende Rolle bei der Entwicklung der verteilten Compute4PUNCH-Infrastruktur ein und ist an den Aktivitäten rund um Storage4PUNCH beteiligt, einer verteilten Speicherinfrastruktur für die PUNCH-Communities.
NFDI-MatWerk
Das Konsortium NFDI-MatWerk erhält eine fünfjährige Förderung im Rahmen der Nationalen Forschungsdateninfrastruktur (NFDI) für die Entwicklung eines gemeinsamen Material-Forschungsdatenraums. NFDI-MatWerk steht für die Materialwissenschaft und Werkstofftechnik, um die physikalischen Mechanismen in Materialien zu charakterisieren und ressourcenschonende Hochleistungswerkstoffe mit möglichst idealen Eigenschaften für die jeweilige Anwendung zu entwickeln.
Über Deutschland verteilte Daten aus den wissenschaftlichen Gruppen sollen über eine wissensgraphbasierte Infrastruktur so angesprochen werden können, dass schnelle und komplexe Suchanfragen und Auswertungen möglich werden.
Am KIT sind das Scientific Computing Center (SCC) und das Institut für Angewandte Materialien (IAM) beteiligt. Im SCC werden wir mit den Partnern das Digital Materials Environment mit den Infrastrukturdiensten für die Forschungsdaten und ihre Metadaten aufbauen.
bwIDM - Security and Community
Das skizzierte Projekt bwIDM2 widmet sich den gestiegenen Anforderungen an IT-Sicherheit und berücksichtigt
aktuelle technische Entwicklungen. Es schafft die Voraussetzungen zur hochschulartenübergreifenden
Einbindung von Diensten und etabliert eine Gruppen-/Rollenverwaltung für überregionale
und nationale Communities mit Delegationsmechanismen. Darüber hinaus werden Fachkonzepte
zur Integration eines langfristigen Personen-Identifikators in bwIDM, wie er zur Verwendung
beim Forschungsdatenmanagement notwendig ist, erarbeitet.
Numerical modeling of cardiac electrophysiology at the cellular scale - MICROCARD
Herz-Kreislauf-Erkrankungen zählen zu den weltweit häufigsten
Todesursachen: Jedes Jahr sterben in Deutschland über 300 000 Menschen an den Folgen. Rund die Hälfte dieser Todesfälle werden durch Herzrhythmusstörungen verursacht. Im europäischen Projekt MICROCARD, an dem das Karlsruher Institut für Technologie (KIT) beteiligt ist, entwickeln Forschende nun eine Simulationsplattform, die die elektrophysikalischen Signalübertragungen im Herzen digital abbilden kann. Die Computersimulationen sollen insbesondere zu einer verbesserten Diagnose und Therapie beitragen. Das KIT erhält für seine Beiträge im Rahmen des „European High-Performance Computing Joint Undertaking“ etwa 1,3 Millionen Euro.
NFFA-Europe-Pilot - NEP
NEP stellt wichtige Ressourcen für die Nano-Forschung bereit und entwickelt neue kooperative Arbeitsweisen. Darin wird der Einsatz innovativer Technologien des Forschungsdaten- und Metadatenmangements immer wichtiger.
Das SCC trägt zum Aufbau einer gemeinsamen Forschungsdateninfrastruktur mit neuen Methoden zur Metadaten-Anreicherung, Erschließung von großen Datensammlungen und der Bereitstellung virtueller Dienste bei.
Joint Lab VMD - JL-VMD
Im Rahmen des JointLab VMD entwickelt das SDL Materials Science Methoden, Werkzeuge und architektonische Konzepte für Supercomputing- und Big-Data-Infrastrukturen, die auf die spezifischen Anwendungsherausforderungen zugeschnitten sind und die Digitalisierung in der Materialforschung und die Erstellung von digitalen Zwillingen erleichtern. Insbesondere entwickelt das Joint Lab eine virtuelle Forschungsumgebung (VRE), die Rechen- und Datenspeicherressourcen in bestehende Workflow-Managementsysteme und interaktive Umgebungen für Simulationen und Datenanalysen integriert.
Joint Lab MDMC - JL-MDMC
Im Rahmen des Joint Lab "Integrated Model and Data Driven Materials Characterization" (MDMC) entwickelt das SDL Materialwissenschaft ein Konzept für eine Daten- und Informationsplattform, um Daten über Materialien als experimentelle Basis für digitale Zwillinge und für die Entwicklung simulationsbasierter Methoden zur Vorhersage von Materialstruktur und -eigenschaften wissensorientiert verfügbar zu machen. Es definiert ein Metadatenmodell zur Beschreibung von Proben und Datensätzen aus experimentellen Messungen und harmonisiert Datenmodelle für die Materialsimulation und korrelative Charakterisierung unter Verwendung von materialwissenschaftlichen Vokabularen und Ontologien.
NFDI4Ing
Laufzeit: 01.10.2020 - 30.09.2025
Projektseite: nfdi4ing.de NFDI4Ing ist ein Konsortium der Ingenieurwissenschaften und fördert das Management technischer Forschungsdaten. NFDI4Ing wurde schon 2017 gegründet und steht in engem Austausch mit Forschenden aller ingenieurwissenschaftlichen Fachgebiete. Das Konsortium bietet einen einzigartigen methodenorientierten und nutzerzentrierten Ansatz, um technische Forschungsdaten FAIR - auffindbar, zugänglich, interoperabel und wiederverwendbar - zu machen. Eine wichtige Herausforderung ist dabei die große Anzahl von Teildisziplinen der Ingenieurwissenschaften und ihre fachspezifischen Eigenheiten. Das KIT ist mit einer Co-Sprecherin, Britta Nestler aus dem Institut für Angewandte Materialien (IAM) und einem Co-Sprecher, Achim Streit aus dem Scientific Computing Center (SCC), beteiligt.
Im Rahmen von NFDI4Ing entwickelt und implementiert das SCC in enger Kooperation mit den Partnern die Konzepte für föderierte Forschungsdateninfrastrukturen, Datenmanagement-Prozesse, Repositorien und Metadatenmanagement. Der NFDI4Ing-Antrag https://doi.org/10.5281/zenodo.4015200 beschreibt die geplante Forschungsdateninfrastruktur im Detail.
NFDI4Chem - Chemiekonsortium in der Nationalen Forschungsdateninfrastruktur (NFDI
Die Vision von NFDI4Chem ist die Digitalisierung aller Arbeitsprozesse in der chemischen Forschung. Hierzu soll Infrastruktur auf- und ausgebaut werden, die Forschende dabei unterstützt, Forschungsdaten zu sammeln, zu speichern und zu archivieren, zu verarbeiten und zu analysieren sowie die Daten in Repositorien zusammen mit beschreibenden Metadaten und DOIs zu publizieren und somit referenzierbar und wiederverwendbar zu machen. NFDI4Chem vertritt als Fachkonsortium alle Disziplinen der Chemie und arbeitet dazu eng mit den großen Fachgesellschaften zusammen.
Episteme in Bewegung - SFB 980
Der Sonderforschungsbereich 980 Episteme in Bewegung‘ untersucht seit 2012 Prozesse des Wissenswandels in europäischen und nicht-europäischen Kulturen vom 3. Jahrtausend vor Christus bis etwa 1750 nach Christus. Seit 2016 unterstützt das SCC durch seine Expertise im modernen Forschungsdatenmanagement beim Sammeln digitaler Indizien für bisher ungelöste Fragen.
Das SCC entwickelt im Teilprojekt Informationsinfrastruktur informationstechnologische Verfahren zur Datenerschließung für die Untersuchung und Visualisierung von Wissensbewegungen in langfristig tradierten vormodernen Wissensbeständen am Beispiel von Reisen von Handschriften, Drucken sowie Sarg- und Pyramidentextsprüchen. Basierend auf einem Forschungsdatenrepositorium werden (1) neue Werkzeuge zur Datenanalyse, (2) spezifische Vokabulardienste und (3) innovative Präsentationsschichten entwickelt.
HAICORE
Das Helmholtz AI COmpute REssources Infrastrukturprojekt ist Teil des Helmholtz Inkubators “Information & Data Science” und dient der Bereitstellung von leistungsstarken Rechenressourcen für die Forschenden im Bereich künstlicher Intelligenz (KI) in der Helmholtz-Gemeinschaft. Technisch wird die KI-Hardware als Teil der Hochleistungsrechnersysteme JUWELS (Julich Supercomputing Centre) und HoreKa (KIT) an den beiden Zentren betrieben. Das SCC deckt dabei vornehmlich den prototypischen Entwicklungsbetrieb ab in dem neue Ansätze, Modelle und Verfahren entwickelt und erprobt werden können. HAICORE steht allen Mitgliedern der Helmholtz-Gemeinschaft im Bereich KI-Forschung offen.
Helmholtz Metadata Collaboration Platform - HMC
Mit der Helmholtz Metadata Collaboration Plattform startete Ende 2019 ein wichtiges Themenfeld des Helmholtz Inkubators "Information & Data Science", der die Expertise der Helmholtz-Zentren zusammenführt und das Thema „Information & Data Science“ über die Grenzen von Zentren und Forschungsbereichen hinweg gestaltet. Übergeordnetes Ziel der Plattform ist, die qualitative Anreicherung von Forschungsdaten durch Me-tadaten langfristig voranzutreiben, die Forschenden zu unterstützen – und dies in der Helmholtz-Gemeinschaft und darüber hinaus umzusetzen.
Mit dem Arbeitspaket FAIR Data Commons Technologien entwickelt SCC Technologien und Prozesse, um Forschungsdaten aus den Forschungsbereichen der Helmholtz Gemeinschaft und darüber hinaus den Forschenden entsprechend der FAIR Prinzipien zur Verfügung zu stellen. Dies wird auf technischer Ebene durch einen einheitlichen Zugriff auf Metadaten mit Hilfe von standardisierten Schnittstellen erreicht, welche sich an Empfehlungen und Standards orientieren, die innerhalb weltweit vernetzten Forschungsdateninitiativen, z.B. der Research Data Alliance (RDA, https://www.rd-alliance.org/), durch Konsensbildung verabschiedet werden. Für den Forschenden werden diese Schnittstellen durch einfach nutzbare Werkzeuge, allgemein anwendbare Prozesse und Empfehlungen für den Umgang mit Forschungsdaten im wissenschaftlichen Alltag nutzbar gemacht.
Helmholtz AI
Die Helmholtz AI Plattform ist ein Forschungsprojekt des Helmholtz Inkubators “Information & Data Science”. Die übergeordnete Mission der Plattform ist dabei die “Demokratisierung von KI für eine datengetriebene Zukunft” und ziehlt darauf ab einer möglich breiten Nutzendengruppe KI-Algorithmen und -Ansätze einfach handhabbar und ressourcenschonend zur Verfügung zu stellen.
Die Helmholtz AI Plattform ist nach einem Rad-Speichen-Modell strukturiert, dass die sechs Forschungsfelder der Helmholtz-Gemeinschaft abdeckt. Das KIT ist dabei mit seiner Local Unit für den Themenkreis Energieforschung verantwortlich. In diesem Rahmen unterstützt das SCC Forschende mit einer Beratungseinheit bei der Umsetzung von KI-Forschungsvorhaben in der Erkundung neuer Ansätze zur Energieerzeugung, -verteilung und -speicherung.
Mehr
GRK 2450 - Maßgeschneiderte Multiskalenmethoden für Computersimulationen von nanoskaligen Materialien - GRK 2450 (DFG)
Im Graduiertenkolleg Maßgeschneiderte Multiskalenmethoden für Computersimulationen von nanoskaligen Materialien untersuchen wir Probleme, die mit einzelnen Standardwerkzeugen der Computational Chemistry nicht zu bewältigen sind. Die Forschung ist in sieben Projekte gegliedert. Fünf Projekte adressieren wissenschaftliche Herausforderungen wie Reibung, Materialalterung, Materialdesign und biologische Funktion. In zwei weiteren Projekten werden neue Methoden und Werkzeugen der Mathematik und der Informatik für die speziellen Anforderungen dieser Anwendungen entwickelt und bereitgestellt. Das SCC ist an den Projekten P4, P5 und P6 beteiligt.
Helmholtz Federated IT Services - HIFIS
Mit den Helmholtz Federated IT Services (HIFIS) wird eine sichere und einfach zu bedienende Kooperationsumgebung mit effizient und von überall zugänglichen IKT-Diensten aufgebaut. HIFIS unterstützt auch die Entwicklung von Forschungssoftware mit einem hohen Maß an Qualität, Sichtbarkeit und Nachhaltigkeit.
Simulierte Welten (Phase III)
Das Projekt Simulierte Welten hat sich zum Ziel gesetzt, Schülerinnen und Schülern in Baden-Württemberg ein vertieftes kritisches Verständnis der Möglichkeiten und Grenzen von Computersimulationen zu vermitteln. Das Vorhaben wird gemeinsam vom Scientific Computing Center (SCC), dem Höchstleistungsrechenzentrum Stuttgart (HLRS) sowie der Universität Ulm getragen und arbeitet bereits mit mehreren Schulen in Baden-Württemberg zusammen.
Computational and Mathematical Modeling Program - CAMMP
CAMMP steht für Computational And Mathematical Modeling Program (Computergestütztes Mathematisches Modellierungsprogramm). Es ist ein außerschulisches Angebot des KIT für Schülerinnen und Schüler verschiedenen Alters. CAMMP will die gesellschaftliche Bedeutung von Mathematik und Simulationswissenschaften der Öffentlichkeit bewusst machen. Dazu steigen Schülerinnen und Schüler in verschiedenen Veranstaltungsformaten gemeinsam mit Lehrkräften aktiv in das Problemlösen mit Hilfe von mathematischer Modellierung und dem Einsatz von Computern ein und erforschen dabei reale Probleme aus Alltag, Industrie oder Forschung.