Laufende Projekte
Daten und Dienste zur Unterstützung von Meeres- und Süßwasserwissenschaftlern sowie Interessensgruppen - AquaINFRA
Das AquaINFRA-Projekt zielt darauf ab, eine virtuelle Umgebung zu entwickeln, die mit multidisziplinären FAIR-Daten und -Diensten ausgestattet ist, um Meeres- und Süßwasserwissenschaftler und Interessengruppen bei der Wiederherstellung gesunder Ozeane, Meere, Küsten- und Binnengewässer zu unterstützen. Die virtuelle AquaINFRA-Umgebung wird es den Zielakteuren ermöglichen, Forschungsdaten und andere digitale Forschungsobjekte aus ihrer eigenen Disziplin zu speichern, gemeinsam zu nutzen, darauf zuzugreifen, sie zu analysieren und zu verarbeiten, und zwar über Forschungsinfrastrukturen, Disziplinen und Landesgrenzen hinweg, indem sie EOSC und die anderen bestehenden operativen Datenräume nutzt. AquaINFRA unterstützt nicht nur die laufende Entwicklung der EOSC als übergreifende Forschungsinfrastruktur, sondern befasst sich auch mit der spezifischen Notwendigkeit, Forschern aus dem Meeres- und Süßwasserbereich die Möglichkeit zu geben, über diese beiden Bereiche hinweg zu arbeiten und zusammenzuarbeiten.
(Übersetzt mit DeepL.com)
Entwicklung einer InfraStruktur zum dAtenBasiErten Lernen in den Umweltwissenschaften - ISABEL
Laufzeit: 01.12.2022 - 30.11.2025
Digital verfügbare Datensätze in der terrestrischen Wasser- und Umweltforschung werden immer zahlreicher und umfangreicher, sind allerdings oft nicht ohne Weiteres zugänglich und wissenschaftlich verwendbar. Häufig sind sie unzureichend mit Metadaten beschrieben und in unterschiedlichsten Datenformaten abgelegt, dazu oftmals nicht in Datenportalen/-repositorien, sondern auf lokalen Speichermedien vorgehalten. Basierend auf der in einem Vorgängerprojekt entwickelten virtuellen Forschungsumgebung VFOR-WaTer ist es das Ziel von ISABEL, dieses Datenangebot in einem Webportal verfügbar zu machen. Hier sollen Umweltwissenschaftler auf Daten aus unterschiedlichen Quellen wie z.B. Landesämtern oder Hochschulprojekten einfach und schnell zugreifen, aber auch eigene Daten teilen können. Zusätzlich sind Schnittstellen zu bestehenden Datenportalen geplant, damit bereits veröffentlichte Datensätze mit einbezogen werden können. Mithilfe integrierter Werkzeuge sollen diese Daten leicht skaliert werden und in einem einheitlichen Format verfügbar sein. Außerdem stehen Analysewerkzeuge für weitere Auswertungen zur Verfügung. Diese werden vom Entwicklerteam beständig für den Bedarf der Community erweitert, können aber auch direkt von Nutzern beigetragen werden. Ein leichtes Abspeichern der Analyseschritte und verwendeten Werkzeuge macht die Berechnungen reproduzierbar, zudem wird durch die Anbindung an vorhandene Datenrepositorien die Publikation eigener Daten vereinfacht. Damit adressiert ISABEL den Bedarf von Forschenden aus den Wasser- und Umweltwissenschaften, Daten nicht nur aufzufinden und darauf zugreifen zu können, sondern mit standardisierten Werkzeugen für reproduzierbare Datenanalyseschritte effizient datengetrieben zu lernen.
Mehr
Skills for the European Open Science Commons: Creating a Training Ecosystem for Open and FAIR Science - Skills4EOSC
Skills4EOSC bringt führende Experten zusammen aus nationalen, regionalen, institutionellen und thematischen Open Science und Datenkompetenzzentren aus 18 europäischen Ländern mit dem Ziel, die derzeitige Trainings- und Ausbildungslandschaft zu vereinheitlichen in ein gemeinsames Europa-übergreifendes Ökosystem, um Forschende und Datenspezialisten aus Europa beschleunigt auf den Gebieten FAIR Open Data, datenintensive Wissenschaft und wissenschaftliches Datenmanagement auszubilden.
iMagine
iMagine ist ein von der EU gefördertes Projekt, das ein Portfolio von frei nutzbaren Bilddatensätzen, leistungsstarken Bildanalysewerkzeugen, die mit mit künstlicher Intelligenz (KI) und Best-Practice-Dokumente für die wissenschaftliche Bildanalyse. Diese Dienste und Materialien ermöglichen eine bessere und effizientere Verarbeitung und Analyse von Bilddaten in der Meeres- und Süßwasserforschung, die für das übergreifende Thema 'Gesunde Ozeane, Meere, Küsten- und Binnengewässer' relevant sind.
Artificial Intelligence for the European Open Science Cloud - AI4EOSC
Laufzeit: 01.09.2022 - 31.08.2025
Projektseite: ai4eosc.eu Das Projekt AI4EOSC (Artificial Intelligence for the European Open Science Cloud) ist ein von der EU finanziertes Projekt, das eine Reihe von erweiterten und fortschrittliche Dienste für die Entwicklung von AI/ML/DL-Modellen und Anwendungen in der European Open Science Cloud (EOSC) zur Verfügung stellt. Diese Dienste sind in einer umfassenden Plattform gebündelt, die moderne Funktionen wie verteiltes, föderiertes und geteiltes Lernen, neuartige Provenance-Metadaten für KI/ML/DL-Modelle sowie ereignisgesteuerte Datenverarbeitungsdienste. Das Projekt baut auf den Ergebnissen der DEEP-Hybrid-DataCloud und der EOSC-Rechnerplattform auf.
Entwicklung und Validierung eines hybriden Gitter-/Partikelverfahrens für turbulente Strömungen unterstützt durch Hochleistungsberechnungen mit OpenFOAM - hGVtSOF
Das Hauptziel des vorliegenden Projekts ist die Weiterentwicklung und Validierung einer neuen CFD-Methode (Computational Fluid Dynamics), die eine Kombination aus gitterfreien (Partikel) und gitterbasierten Techniken verwendet. Eine grundlegende Annahme dieses neuen Ansatzes ist die Zerlegung jeder physikalischen Größe in einen gitterbasierten (großskaligen) und einen feinskaligen Teil, wobei die großskaligen Teile auf dem Gitter aufgelöst und die feinskaligen Teile durch Partikel dargestellt werden. Die Dynamik der großen und feinen Skalen wird aus zwei gekoppelten Transportgleichungen berechnet, von denen eine auf dem Gitter gelöst wird, während die zweite die Lagrangesche gitterfreie Vortex-Partikel-Methode (VPM) verwendet.
InterTwin
InterTwin entwirft und implementiert den Prototypen einer interdisziplinären Digital Twin Engine (DTE). Dies ist eine Open-Source-Plattform, die generische Softwarekomponenten für die Modellierung und Simulation zur Integration anwendungsspezifischer Digitalen Zwillingen bereitstellt. Die Spezifikationen basieren auf einem im Projekt zu entwerfenden konzeptionellen Modell - der DTE Blueprint-Architektur. Diese orientiert sich an den Grundsätzen von offenen Standards und Interoperabilität. Das Ziel ist die Entwicklung eines gemeinsamen Ansatzes für die Implementierung von Digital Twins zu entwickeln, der über das gesamte Spektrum der wissenschaftlichen Disziplinen und darüber hinaus anwendbar ist.
Materialisierte Heiligkeit - toRoll
Im Projekt "Materialisierte Heiligkeit" werden Torarollen als ein außerordentliches kodikologisches, theologisches und soziales Phänomen untersucht. Anders als bei beispielsweise Bibelkopien ist die Abschrift der heiligen Schriftrollen bereits seit der Antike durch strenge Regulierungen bestimmt und wird durch eine reiche Kommentarliteratur ergänzt.
Gemeinsam mit Expertinnen und Experten der Judaistik, der Materialforschung und der Sozialwissenschaften möchten wir einen digitalen Wissensspeicher aufbauen, der der Vielschichtigkeit dieses Forschungsgegenstandes gerecht wird. Die jüdische Schreiberliteratur mit englischer Übersetzung, Materialanalysen, paläographische Untersuchungen an mittelalterlichen Torarollen sowie Interview- und Filmmaterial über Schreiber / Schreiberinnen der heutigen Zeit sollen in einer einmaligen Sammlung zusammenkommen und erstmals interdisziplinär untersucht werden. Zusätzlich soll eine zu entwickelnde 'virtuelle Torarolle' kleinste paläographische Details der Schrift und ihre Bedeutung im kulturellen Gedächtnis aufdecken.
Metaphern der Religion - SFB1475
Der an der Ruhr-Universität Bochum (RUB) angesiedelte SFB 1475 möchte den religiösen Gebrauch von Metaphern über Zeiten und Kulturen hinweg verstehen und methodisch erfassen. Dazu untersuchen die Teilprojekte eine Vielzahl von Schriften aus Christentum, Islam, Judentum, Zoroastrismus, Jainismus, Buddhismus und Daoismus, die aus Europa, dem Nahen und Mittleren Osten sowie Süd-, Zentral- und Ostasien stammen und die Zeitspanne von 3000 v. Chr. bis heute umfassen. Erstmals werden in durch diesen Verbund vergleichende Studien in einzigartigem Umfang ermöglicht.
Das SCC leitet im Sonderforschungsbereich gemeinsam mit den Kolleginnen und Kollegen des Centrum für Religionswissenschaftliche Studien (CERES) und der RUB das Informationsinfrastrukturprojekt „Metapher-Basislager“, in dem die digitale Dateninfrastruktur für alle Teilprojekte entwickelt wird. Zentrale Komponente wird ein Forschungsdatenrepositorium mit modernsten Annotations-, Analyse- und Visualisierungswerkzeugen für die geisteswissenschaftlichen Daten.
Helmholtz Platform for Research Software Engineering - Preparatory Study (HiRSE_PS)
The HiRSE concept sees the establishment of central activities in RSE and the targeted sustainable funding of strategically important codes by so-called Community Software Infrastructure (CSI) groups as mutually supportive aspects of a single entity.
Zukunftsfähige Konzepte für die Campusnetze der Hochschulen in Baden-Württemberg - bwCampusnetz
Im Projekt bwCampusnetz arbeiten mehrere Universitäten zusammen, um die Campusnetze zu beleuchten. Es sollen zukunftsfähige Konzepte gefunden und deren praktische Umsetzbarkeit durch prototypische Implementierungen untersucht und demonstriert werden.
PUNCH4NFDI
PUNCH4NFDI ist das NFDI-Konsortium für Teilchen-, Astro-, Astroteilchen-, Hadronen- und Kernphysik, das rund 9.000 promovierte Wissenschaftlerinnen und Wissenschaftler aus Universitäten, der Max-Planck-Gesellschaft, der Leibniz-Gemeinschaft und der Helmholtz-Gemeinschaft in Deutschland vertritt. Die PUNCH-Physik befasst sich mit den grundlegenden Bestandteilen der Materie und ihren Wechselwirkungen sowie mit ihrer Rolle bei der Entstehung der größten Strukturen im Universum – Sterne und Galaxien. Die Errungenschaften der PUNCH-Wissenschaft reichen von der Entdeckung des Higgs-Bosons über die Installation eines 1-Kubikkilometer-Teilchendetektors zum Neutrinonachweis im antarktischen Eis bis hin zum Nachweis des Quark-Gluon-Plasmas bei Schwerionenkollisionen und dem ersten Bild des schwarzen Lochs im Herzen der Milchstraße überhaupt.
Das Hauptziel von PUNCH4NFDI ist der Aufbau einer föderierten und „FAIR"en-Wissenschaftsdatenplattform, die die notwendigen Infrastrukturen und Schnittstellen für den Zugang zu und die Nutzung von Daten und Rechenressourcen der beteiligten Gemeinschaften und darüber hinaus bietet. Das SCC übernimmt dabei eine führende Rolle bei der Entwicklung der verteilten Compute4PUNCH-Infrastruktur ein und ist an den Aktivitäten rund um Storage4PUNCH beteiligt, einer verteilten Speicherinfrastruktur für die PUNCH-Communities.
NFDI-MatWerk
Das Konsortium NFDI-MatWerk erhält eine fünfjährige Förderung im Rahmen der Nationalen Forschungsdateninfrastruktur (NFDI) für die Entwicklung eines gemeinsamen Material-Forschungsdatenraums. NFDI-MatWerk steht für die Materialwissenschaft und Werkstofftechnik, um die physikalischen Mechanismen in Materialien zu charakterisieren und ressourcenschonende Hochleistungswerkstoffe mit möglichst idealen Eigenschaften für die jeweilige Anwendung zu entwickeln.
Über Deutschland verteilte Daten aus den wissenschaftlichen Gruppen sollen über eine wissensgraphbasierte Infrastruktur so angesprochen werden können, dass schnelle und komplexe Suchanfragen und Auswertungen möglich werden.
Am KIT sind das Steinbuch Centre for Computing und das Institut für Angewandte Materialien (IAM) beteiligt. Im SCC werden wir mit den Partnern das Digital Materials Environment mit den Infrastrukturdiensten für die Forschungsdaten und ihre Metadaten aufbauen.
A new TEstbed for Exploring Machine LEarning in Atmospheric Prediction - TEEMLEAP
Trotz stetiger Verbesserung der numerischen Wettervorhersagemodelle weisen diese immer noch systematische Fehler auf, die durch vereinfachte Darstellungen physikalischer Prozesse, Annahmen über lineares Verhalten und die Herausforderungen, alle verfügbaren Beobachtungsdaten zu integrieren, verursacht werden. Wetterdienste in aller Welt erkennen nun, dass die Beseitigung dieser Defizite durch den Einsatz künstlicher Intelligenz (KI) die Disziplin in den nächsten Jahrzehnten revolutionieren könnte. Dies erfordert ein grundlegendes Umdenken, das die Meteorologie viel stärker mit der Mathematik und Informatik verzahnt. TEEMLEAP wird diesen Kulturwandel durch eine Kooperation von Wissenschaftlern der KIT-Zentren Klima und Umwelt und MathSEE fördern, indem ein idealisiertes Testbed zur Erforschung des maschinellen Lernens in der Wettervorhersage eingerichtet wird. Im Gegensatz zu Wetterdiensten, welche sich naturgemäß auf Verbesserungen der numerischen Vorhersagemodelle in ihrer vollen Komplexität konzentrieren, beabsichtigt TEEMLEAP die Einsatzmöglichkeiten und den Nutzen von KI in diesem Testbed entlang der gesamten Prozesskette der Wettervorhersage zu evaluieren.
bwIDM - Security and Community
Das skizzierte Projekt bwIDM2 widmet sich den gestiegenen Anforderungen an IT-Sicherheit und berücksichtigt
aktuelle technische Entwicklungen. Es schafft die Voraussetzungen zur hochschulartenübergreifenden
Einbindung von Diensten und etabliert eine Gruppen-/Rollenverwaltung für überregionale
und nationale Communities mit Delegationsmechanismen. Darüber hinaus werden Fachkonzepte
zur Integration eines langfristigen Personen-Identifikators in bwIDM, wie er zur Verwendung
beim Forschungsdatenmanagement notwendig ist, erarbeitet.
Numerical modeling of cardiac electrophysiology at the cellular scale - MICROCARD
Herz-Kreislauf-Erkrankungen zählen zu den weltweit häufigsten
Todesursachen: Jedes Jahr sterben in Deutschland über 300 000 Menschen an den Folgen. Rund die Hälfte dieser Todesfälle werden durch Herzrhythmusstörungen verursacht. Im europäischen Projekt MICROCARD, an dem das Karlsruher Institut für Technologie (KIT) beteiligt ist, entwickeln Forschende nun eine Simulationsplattform, die die elektrophysikalischen Signalübertragungen im Herzen digital abbilden kann. Die Computersimulationen sollen insbesondere zu einer verbesserten Diagnose und Therapie beitragen. Das KIT erhält für seine Beiträge im Rahmen des „European High-Performance Computing Joint Undertaking“ etwa 1,3 Millionen Euro.
bwHPC-S5: Scientific Simulation and Storage Support Services
Das primäre Ziel des Projektes ist die Etablierung einer integrierten landesweiten Rechen- und Dateninfrastruktur sowie die Steigerung der Effizienz und der Effektivität durch erstklassige Unterstützung der Wissenschaftler und Nutzer.
NFFA-Europe-Pilot - NEP
NEP stellt wichtige Ressourcen für die Nano-Forschung bereit und entwickelt neue kooperative Arbeitsweisen. Darin wird der Einsatz innovativer Technologien des Forschungsdaten- und Metadatenmangements immer wichtiger.
Das SCC trägt zum Aufbau einer gemeinsamen Forschungsdateninfrastruktur mit neuen Methoden zur Metadaten-Anreicherung, Erschließung von großen Datensammlungen und der Bereitstellung virtueller Dienste bei.
EGI Advanced Computing for EOSC - EGI-ACE
Laufzeit: 01.01.2021 - 30.06.2023
EGI-ACE empowers researchers from all disciplines to collaborate in data- and compute-intensive research across borders through free at point of use services. Building on the distributed computing integration in EOSChub, it delivers the EOSC Compute Platform and contributes to the EOSC Data Commons through a federation of Cloud compute and storage facilities, PaaS services and data spaces with analytics tools and federated access services. The Platform is built on the EGI Federation, the largest distributed computing infrastructure for research. The EGI Federation delivers over 1 Exabyte of research data and 1 Million CPU cores which supported the discovery of the Higgs Boson and the first observation of gravitational waves, while remaining open to new members. The Platform pools the capacity of some of Europe’s largest research data centres, leveraging ISO compliant federated service management. Over 30 months, it will provide more than 82 M CPU hours and 250 K GPU hours for data processing and analytics, and 45 PB/month to host and exploit research data. Its services address the needs of major research infrastructures and communities of practice engaged through the EOSC-hub project. The Platform advances beyond the state of the art through a data-centric approach, where data, tools and compute and storage facilities form a fully integrated environment accessible across borders thanks to Virtual Access. The Platform offers heterogeneous systems to meet different needs, including state of the art GPGPUs and accelerators supporting AI and ML, making the Platform an ideal innovation space for AI applications. The data spaces and analytics tools are delivered in collaboration with tens of research infrastructures and projects, to support use cases for Health, the Green Deal, and fundamental sciences. The consortium builds on the expertise and assets of the EGI federation members, key research communities and data providers, and collaborating initiatives.
Mehr
Data Infrastructure Capacity for EOSC - DICE
The Data Infrastructure Capacities for EOSC (DICE) consortium brings together a network of computing and data centres, research infrastructures, and data repositories for the purpose to enable a European storage and data management infrastructure for EOSC, providing generic services and building blocks to store, find, access and process data in a consistent and persistent way. Specifically, DICE partners will offer 14 state-of-the-art data management services together with more than 50 PB of storage capacity. The service and resource provisioning will be accompanied by enhancing the current service offering in order to fill the gaps still present to the support of the entire research data lifecycle; solutions will be provided for increasing the quality of data and their re-usability, supporting long term preservation, managing sensitive data, and bridging between data and computing resources.
All services provided via DICE will be offered through the EOSC Portal and interoperable with EOSC Core via a lean interoperability layer to allow efficient resource provisioning from the very beginning of the project. The partners will closely monitor the evolution of the EOSC interoperability framework and guidelines to comply with a) the rules of participation to onboard services into EOSC, and b) the interoperability guidelines to integrate with the EOSC Core functions.
The data services offered via DICE through EOSC are designed to be agnostic to the scientific domains in order to be multidisciplinary and to fulfil the needs of different communities.
The consortium aims to demonstrate their effectiveness of the service offering by integrating services with community platforms as part of the project and by engaging with new communities coming through EOSC.
NFDI4Ing
Laufzeit: 01.10.2020 - 30.09.2025
Projektseite: nfdi4ing.de NFDI4Ing ist ein Konsortium der Ingenieurwissenschaften und fördert das Management technischer Forschungsdaten. NFDI4Ing wurde schon 2017 gegründet und steht in engem Austausch mit Forschenden aller ingenieurwissenschaftlichen Fachgebiete. Das Konsortium bietet einen einzigartigen methodenorientierten und nutzerzentrierten Ansatz, um technische Forschungsdaten FAIR - auffindbar, zugänglich, interoperabel und wiederverwendbar - zu machen. Eine wichtige Herausforderung ist dabei die große Anzahl von Teildisziplinen der Ingenieurwissenschaften und ihre fachspezifischen Eigenheiten. Das KIT ist mit einer Co-Sprecherin, Britta Nestler aus dem Institut für Angewandte Materialien (IAM) und einem Co-Sprecher, Achim Streit aus dem Steinbuch Centre for Computing (SCC), beteiligt.
Im Rahmen von NFDI4Ing entwickelt und implementiert das SCC in enger Kooperation mit den Partnern die Konzepte für föderierte Forschungsdateninfrastrukturen, Datenmanagement-Prozesse, Repositorien und Metadatenmanagement. Der NFDI4Ing-Antrag https://doi.org/10.5281/zenodo.4015200 beschreibt die geplante Forschungsdateninfrastruktur im Detail.
NFDI4Chem - Chemiekonsortium in der Nationalen Forschungsdateninfrastruktur (NFDI
Die Vision von NFDI4Chem ist die Digitalisierung aller Arbeitsprozesse in der chemischen Forschung. Hierzu soll Infrastruktur auf- und ausgebaut werden, die Forschende dabei unterstützt, Forschungsdaten zu sammeln, zu speichern und zu archivieren, zu verarbeiten und zu analysieren sowie die Daten in Repositorien zusammen mit beschreibenden Metadaten und DOIs zu publizieren und somit referenzierbar und wiederverwendbar zu machen. NFDI4Chem vertritt als Fachkonsortium alle Disziplinen der Chemie und arbeitet dazu eng mit den großen Fachgesellschaften zusammen.
Episteme in Bewegung - SFB 980
Der Sonderforschungsbereich 980 Episteme in Bewegung‘ untersucht seit 2012 Prozesse des Wissenswandels in europäischen und nicht-europäischen Kulturen vom 3. Jahrtausend vor Christus bis etwa 1750 nach Christus. Seit 2016 unterstützt das SCC durch seine Expertise im modernen Forschungsdatenmanagement beim Sammeln digitaler Indizien für bisher ungelöste Fragen.
Das SCC entwickelt im Teilprojekt Informationsinfrastruktur informationstechnologische Verfahren zur Datenerschließung für die Untersuchung und Visualisierung von Wissensbewegungen in langfristig tradierten vormodernen Wissensbeständen am Beispiel von Reisen von Handschriften, Drucken sowie Sarg- und Pyramidentext¬sprüchen. Basierend auf einem Forschungsdaten¬repositorium werden (1) neue Werk¬zeuge zur Datenanalyse, (2) spezifische Vokabulardienste und (3) innovative Präsentations¬schichten entwickelt.
HAICORE
Das Helmholtz AI COmpute REssources Infrastrukturprojekt ist Teil des Helmholtz Inkubators “Information & Data Science” und dient der Bereitstellung von leistungsstarken Rechenressourcen für die Forschenden im Bereich künstlicher Intelligenz (KI) in der Helmholtz-Gemeinschaft. Technisch wird die KI-Hardware als Teil der Hochleistungsrechnersysteme JUWELS (Julich Supercomputing Centre) und HoreKa (KIT) an den beiden Zentren betrieben. Das SCC deckt dabei vornehmlich den prototypischen Entwicklungsbetrieb ab in dem neue Ansätze, Modelle und Verfahren entwickelt und erprobt werden können. HAICORE steht allen Mitgliedern der Helmholtz-Gemeinschaft im Bereich KI-Forschung offen.
bwNET2020+ für ein leistungsfähigeres und flexibles Netz in Baden-Württemberg
Das Projekt bwNET2020+ soll den Ausbau des Landeshochschulnetzes und die Innovationskraft innerhalb der Universitätsnetze unterstützen, da die Konsolidierung von IT-Diensten an den Universitäten höhere Anforderungen an das zugrundeliegende Netz stellen.
Mehr
Helmholtz Metadata Collaboration Platform - HMC
Mit der Helmholtz Metadata Collaboration Plattform startete Ende 2019 ein wichtiges Themenfeld des Helmholtz Inkubators "Information & Data Science", der die Expertise der Helmholtz-Zentren zusammenführt und das Thema „Information & Data Science“ über die Grenzen von Zentren und Forschungsbereichen hinweg gestaltet. Übergeordnetes Ziel der Plattform ist, die qualitative Anreicherung von Forschungsdaten durch Me-tadaten langfristig voranzutreiben, die Forschenden zu unterstützen – und dies in der Helmholtz-Gemeinschaft und darüber hinaus umzusetzen.
Mit dem Arbeitspaket FAIR Data Commons Technologien entwickelt SCC Technologien und Prozesse, um Forschungsdaten aus den Forschungsbereichen der Helmholtz Gemeinschaft und darüber hinaus den Forschenden entsprechend der FAIR Prinzipien zur Verfügung zu stellen. Dies wird auf technischer Ebene durch einen einheitlichen Zugriff auf Metadaten mit Hilfe von standardisierten Schnittstellen erreicht, welche sich an Empfehlungen und Standards orientieren, die innerhalb weltweit vernetzten Forschungsdateninitiativen, z.B. der Research Data Alliance (RDA, https://www.rd-alliance.org/), durch Konsensbildung verabschiedet werden. Für den Forschenden werden diese Schnittstellen durch einfach nutzbare Werkzeuge, allgemein anwendbare Prozesse und Empfehlungen für den Umgang mit Forschungsdaten im wissenschaftlichen Alltag nutzbar gemacht.
Helmholtz AI
Die Helmholtz AI Plattform ist ein Forschungsprojekt des Helmholtz Inkubators “Information & Data Science”. Die übergeordnete Mission der Plattform ist dabei die “Demokratisierung von KI für eine datengetriebene Zukunft” und ziehlt darauf ab einer möglich breiten Nutzendengruppe KI-Algorithmen und -Ansätze einfach handhabbar und ressourcenschonend zur Verfügung zu stellen.
Die Helmholtz AI Plattform ist nach einem Rad-Speichen-Modell strukturiert, dass die sechs Forschungsfelder der Helmholtz-Gemeinschaft abdeckt. Das KIT ist dabei mit seiner Local Unit für den Themenkreis Energieforschung verantwortlich. In diesem Rahmen unterstützt das SCC Forschende mit einer Beratungseinheit bei der Umsetzung von KI-Forschungsvorhaben in der Erkundung neuer Ansätze zur Energieerzeugung, -verteilung und -speicherung.
Mehr
GRK 2450 - Maßgeschneiderte Multiskalenmethoden für Computersimulationen von nanoskaligen Materialien - GRK 2450 (DFG)
Im Graduiertenkolleg Maßgeschneiderte Multiskalenmethoden für Computersimulationen von nanoskaligen Materialien untersuchen wir Probleme, die mit einzelnen Standardwerkzeugen der Computational Chemistry nicht zu bewältigen sind. Die Forschung ist in sieben Projekte gegliedert. Fünf Projekte adressieren wissenschaftliche Herausforderungen wie Reibung, Materialalterung, Materialdesign und biologische Funktion. In zwei weiteren Projekten werden neue Methoden und Werkzeugen der Mathematik und der Informatik für die speziellen Anforderungen dieser Anwendungen entwickelt und bereitgestellt. Das SCC ist an den Projekten P4, P5 und P6 beteiligt.
Helmholtz Federated IT Services - HIFIS
Mit den Helmholtz Federated IT Services (HIFIS) wird eine sichere und einfach zu bedienende Kooperationsumgebung mit effizient und von überall zugänglichen IKT-Diensten aufgebaut. HIFIS unterstützt auch die Entwicklung von Forschungssoftware mit einem hohen Maß an Qualität, Sichtbarkeit und Nachhaltigkeit.
Simulierte Welten (Phase III)
Das Projekt Simulierte Welten hat sich zum Ziel gesetzt, Schülerinnen und Schülern in Baden-Württemberg ein vertieftes kritisches Verständnis der Möglichkeiten und Grenzen von Computersimulationen zu vermitteln. Das Vorhaben wird gemeinsam vom Steinbuch Centre for Computing (SCC), dem Höchstleistungsrechenzentrum Stuttgart (HLRS) sowie der Universität Ulm getragen und arbeitet bereits mit mehreren Schulen in Baden-Württemberg zusammen.
Computational and Mathematical Modeling Program - CAMMP
CAMMP steht für Computational And Mathematical Modeling Program (Computergestütztes Mathematisches Modellierungsprogramm). Es ist ein außerschulisches Angebot des KIT für Schülerinnen und Schüler verschiedenen Alters. CAMMP will die gesellschaftliche Bedeutung von Mathematik und Simulationswissenschaften der Öffentlichkeit bewusst machen. Dazu steigen Schülerinnen und Schüler in verschiedenen Veranstaltungsformaten gemeinsam mit Lehrkräften aktiv in das Problemlösen mit Hilfe von mathematischer Modellierung und dem Einsatz von Computern ein und erforschen dabei reale Probleme aus Alltag, Industrie oder Forschung.