Beschaffung und Inbetriebnahme von experiment-spezifischem Tier-2-Speicher für ATLAS und CMS am GridKa des KIT/SCC.
The ASSAS project aims at developing a proof-of-concept SA (severe accident) simulator based on ASTEC (Accident Source Term Evaluation Code). The prototype basic-principle simulator will model a simplified generic Western-type pressurized light water reactor (PWR). It will have a graphical user interface to control the simulation and visualize the results. It will run in real-time and even much faster for some phases of the accident. The prototype will be able to show the main phenomena occurring during a SA, including in-vessel and ex-vessel phases. It is meant to train students, nuclear energy professionals and non-specialists. In addition to its direct use, the prototype will demonstrate the feasibility of developing different types of fast-running SA simulators, while keeping the accuracy of the underlying physical models. Thus, different computational solutions will be explored in parallel. Code optimisation and parallelisation will be implemented. Beside these reliable techniques, different machine-learning methods will be tested to develop fast surrogate models. This alternate path is riskier, but it could drastically enhance the performances of the code. A comprehensive review of ASTEC's structure and available algorithms will be performed to define the most relevant modelling strategies, which may include the replacement of specific calculations steps, entire modules of ASTEC or more global surrogate models. Solutions will be explored to extend the models developed for the PWR simulator to other reactor types and SA codes. The training data-base of SA sequences used for machine-learning will be made openly available. Developing an enhanced version of ASTEC and interfacing it with a commercial simulation environment will make it possible for the industry to develop engineering and full-scale simulators in the future. These can be used to design SA management guidelines, to develop new safety systems and to train operators to use them.
Das AquaINFRA-Projekt zielt darauf ab, eine virtuelle Umgebung zu entwickeln, die mit multidisziplinären FAIR-Daten und -Diensten ausgestattet ist, um Meeres- und Süßwasserwissenschaftler und Interessengruppen bei der Wiederherstellung gesunder Ozeane, Meere, Küsten- und Binnengewässer zu unterstützen. Die virtuelle AquaINFRA-Umgebung wird es den Zielakteuren ermöglichen, Forschungsdaten und andere digitale Forschungsobjekte aus ihrer eigenen Disziplin zu speichern, gemeinsam zu nutzen, darauf zuzugreifen, sie zu analysieren und zu verarbeiten, und zwar über Forschungsinfrastrukturen, Disziplinen und Landesgrenzen hinweg, indem sie EOSC und die anderen bestehenden operativen Datenräume nutzt. AquaINFRA unterstützt nicht nur die laufende Entwicklung der EOSC als übergreifende Forschungsinfrastruktur, sondern befasst sich auch mit der spezifischen Notwendigkeit, Forschern aus dem Meeres- und Süßwasserbereich die Möglichkeit zu geben, über diese beiden Bereiche hinweg zu arbeiten und zusammenzuarbeiten. (Übersetzt mit DeepL.com)
Digital verfügbare Datensätze in der terrestrischen Wasser- und Umweltforschung werden immer zahlreicher und umfangreicher, sind allerdings oft nicht ohne Weiteres zugänglich und wissenschaftlich verwendbar. Häufig sind sie unzureichend mit Metadaten beschrieben und in unterschiedlichsten Datenformaten abgelegt, dazu oftmals nicht in Datenportalen/-repositorien, sondern auf lokalen Speichermedien vorgehalten. Basierend auf der in einem Vorgängerprojekt entwickelten virtuellen Forschungsumgebung VFOR-WaTer ist es das Ziel von ISABEL, dieses Datenangebot in einem Webportal verfügbar zu machen. Hier sollen Umweltwissenschaftler auf Daten aus unterschiedlichen Quellen wie z.B. Landesämtern oder Hochschulprojekten einfach und schnell zugreifen, aber auch eigene Daten teilen können. Zusätzlich sind Schnittstellen zu bestehenden Datenportalen geplant, damit bereits veröffentlichte Datensätze mit einbezogen werden können. Mithilfe integrierter Werkzeuge sollen diese Daten leicht skaliert werden und in einem einheitlichen Format verfügbar sein. Außerdem stehen Analysewerkzeuge für weitere Auswertungen zur Verfügung. Diese werden vom Entwicklerteam beständig für den Bedarf der Community erweitert, können aber auch direkt von Nutzern beigetragen werden. Ein leichtes Abspeichern der Analyseschritte und verwendeten Werkzeuge macht die Berechnungen reproduzierbar, zudem wird durch die Anbindung an vorhandene Datenrepositorien die Publikation eigener Daten vereinfacht. Damit adressiert ISABEL den Bedarf von Forschenden aus den Wasser- und Umweltwissenschaften, Daten nicht nur aufzufinden und darauf zugreifen zu können, sondern mit standardisierten Werkzeugen für reproduzierbare Datenanalyseschritte effizient datengetrieben zu lernen.
In der Nanooptik beschäftigen wir uns, unter anderem, mit den optischen Eigenschaften von Strukturen mit einer räumlichen Ausdehnung vergleichbar oder kleiner als der Wellenlänge. Diese Streuer haben viele Anwendungen z.B. in der Bildgebung, in Sensoren oder auch in Quantentechnologien. Alle optischen Eigenschaften eines Streuers werden hierbei durch dessen T-Matrix erfasst. Diese T-Matrix beschreibt, wie ein Beleuchtungsfeld in ein Streufeld konvertiert wird. T-Matrizen sind die Basis zur Beschreibung komplexer nanooptischer Systeme. Aktuell werden diesen T-Matrizen immer wieder neu berechnet und nicht systematisch genutzt. Das verschwendet Rechenressourcen und erlaubt auch nicht, Fragestellungen zu adressieren, die auf der Basis dieser Daten beantwortbar wären. DAPHONA will diesen Mangel beheben. Wir werden Technologien bereitstellen, mit denen die geometrischen und Materialeigenschaften eines Objektes und dessen optische Eigenschaften, ausgedrückt durch die T-Matrix, in einer einheitlichen Datenstruktur zusammengeführt werden. Diese Daten werden systematisch genutzt, um die T-Matrix aus dem Datensatz für ein gegebenes Objekt zu extrahieren. Auch wollen wir Objekte identifizieren, die vordefiniert optische Eigenschaften ausgedrückt durch eine T-Matrix besitzen. Entlang dieser Ansätze werden wir viele neuartige Fragestellungen beantworten, die erst durch den hier formulierten datengetriebenen Ansatz adressiert werden können. Wir planen im Rahmen von DAPHONA wissenschaftlichen Nachwuchs auf verschiedenen Qualifikationsstufen auszubilden und werden unseren Ansatz in der Lehre verankern. Wir haben die Community eingeladen, uns in diesem Projekt zu begleiten. Wir planen, die Datenstruktur mit der Community abzustimmen und im Rahmen von Workshops die vorhandenen Daten zu diskutieren und zur Verfügung stehende Methoden zu deren Nutzung zu verbreiten. Unser Konzept ist offen, basiert auf den FAIR Prinzipien und wird nachhaltig einen Nutzen der gesamten Community bringen.
Skills4EOSC bringt führende Experten zusammen aus nationalen, regionalen, institutionellen und thematischen Open Science und Datenkompetenzzentren aus 18 europäischen Ländern mit dem Ziel, die derzeitige Trainings- und Ausbildungslandschaft zu vereinheitlichen in ein gemeinsames Europa-übergreifendes Ökosystem, um Forschende und Datenspezialisten aus Europa beschleunigt auf den Gebieten FAIR Open Data, datenintensive Wissenschaft und wissenschaftliches Datenmanagement auszubilden.
iMagine ist ein von der EU gefördertes Projekt, das ein Portfolio von frei nutzbaren Bilddatensätzen, leistungsstarken Bildanalysewerkzeugen, die mit mit künstlicher Intelligenz (KI) und Best-Practice-Dokumente für die wissenschaftliche Bildanalyse. Diese Dienste und Materialien ermöglichen eine bessere und effizientere Verarbeitung und Analyse von Bilddaten in der Meeres- und Süßwasserforschung, die für das übergreifende Thema 'Gesunde Ozeane, Meere, Küsten- und Binnengewässer' relevant sind.
Das Projekt AI4EOSC (Artificial Intelligence for the European Open Science Cloud) ist ein von der EU finanziertes Projekt, das eine Reihe von erweiterten und fortschrittliche Dienste für die Entwicklung von AI/ML/DL-Modellen und Anwendungen in der European Open Science Cloud (EOSC) zur Verfügung stellt. Diese Dienste sind in einer umfassenden Plattform gebündelt, die moderne Funktionen wie verteiltes, föderiertes und geteiltes Lernen, neuartige Provenance-Metadaten für KI/ML/DL-Modelle sowie ereignisgesteuerte Datenverarbeitungsdienste. Das Projekt baut auf den Ergebnissen der DEEP-Hybrid-DataCloud und der EOSC-Rechnerplattform auf.
Im Projekt "Materialisierte Heiligkeit" werden Torarollen als ein außerordentliches kodikologisches, theologisches und soziales Phänomen untersucht. Anders als bei beispielsweise Bibelkopien ist die Abschrift der heiligen Schriftrollen bereits seit der Antike durch strenge Regulierungen bestimmt und wird durch eine reiche Kommentarliteratur ergänzt. Gemeinsam mit Expertinnen und Experten der Judaistik, der Materialforschung und der Sozialwissenschaften möchten wir einen digitalen Wissensspeicher aufbauen, der der Vielschichtigkeit dieses Forschungsgegenstandes gerecht wird. Die jüdische Schreiberliteratur mit englischer Übersetzung, Materialanalysen, paläographische Untersuchungen an mittelalterlichen Torarollen sowie Interview- und Filmmaterial über Schreiber / Schreiberinnen der heutigen Zeit sollen in einer einmaligen Sammlung zusammenkommen und erstmals interdisziplinär untersucht werden. Zusätzlich soll eine zu entwickelnde 'virtuelle Torarolle' kleinste paläographische Details der Schrift und ihre Bedeutung im kulturellen Gedächtnis aufdecken.
Der an der Ruhr-Universität Bochum (RUB) angesiedelte SFB 1475 möchte den religiösen Gebrauch von Metaphern über Zeiten und Kulturen hinweg verstehen und methodisch erfassen. Dazu untersuchen die Teilprojekte eine Vielzahl von Schriften aus Christentum, Islam, Judentum, Zoroastrismus, Jainismus, Buddhismus und Daoismus, die aus Europa, dem Nahen und Mittleren Osten sowie Süd-, Zentral- und Ostasien stammen und die Zeitspanne von 3000 v. Chr. bis heute umfassen. Erstmals werden in durch diesen Verbund vergleichende Studien in einzigartigem Umfang ermöglicht. Das SCC leitet im Sonderforschungsbereich gemeinsam mit den Kolleginnen und Kollegen des Centrum für Religionswissenschaftliche Studien (CERES) und der RUB das Informationsinfrastrukturprojekt „Metapher-Basislager“, in dem die digitale Dateninfrastruktur für alle Teilprojekte entwickelt wird. Zentrale Komponente wird ein Forschungsdatenrepositorium mit modernsten Annotations-, Analyse- und Visualisierungswerkzeugen für die geisteswissenschaftlichen Daten.
The HiRSE concept sees the establishment of central activities in RSE and the targeted sustainable funding of strategically important codes by so-called Community Software Infrastructure (CSI) groups as mutually supportive aspects of a single entity.
PUNCH4NFDI ist das NFDI-Konsortium für Teilchen-, Astro-, Astroteilchen-, Hadronen- und Kernphysik, das rund 9.000 promovierte Wissenschaftlerinnen und Wissenschaftler aus Universitäten, der Max-Planck-Gesellschaft, der Leibniz-Gemeinschaft und der Helmholtz-Gemeinschaft in Deutschland vertritt. Die PUNCH-Physik befasst sich mit den grundlegenden Bestandteilen der Materie und ihren Wechselwirkungen sowie mit ihrer Rolle bei der Entstehung der größten Strukturen im Universum – Sterne und Galaxien. Die Errungenschaften der PUNCH-Wissenschaft reichen von der Entdeckung des Higgs-Bosons über die Installation eines 1-Kubikkilometer-Teilchendetektors zum Neutrinonachweis im antarktischen Eis bis hin zum Nachweis des Quark-Gluon-Plasmas bei Schwerionenkollisionen und dem ersten Bild des schwarzen Lochs im Herzen der Milchstraße überhaupt. Das Hauptziel von PUNCH4NFDI ist der Aufbau einer föderierten und „FAIR"en-Wissenschaftsdatenplattform, die die notwendigen Infrastrukturen und Schnittstellen für den Zugang zu und die Nutzung von Daten und Rechenressourcen der beteiligten Gemeinschaften und darüber hinaus bietet. Das SCC übernimmt dabei eine führende Rolle bei der Entwicklung der verteilten Compute4PUNCH-Infrastruktur ein und ist an den Aktivitäten rund um Storage4PUNCH beteiligt, einer verteilten Speicherinfrastruktur für die PUNCH-Communities.
Das Konsortium NFDI-MatWerk erhält eine fünfjährige Förderung im Rahmen der Nationalen Forschungsdateninfrastruktur (NFDI) für die Entwicklung eines gemeinsamen Material-Forschungsdatenraums. NFDI-MatWerk steht für die Materialwissenschaft und Werkstofftechnik, um die physikalischen Mechanismen in Materialien zu charakterisieren und ressourcenschonende Hochleistungswerkstoffe mit möglichst idealen Eigenschaften für die jeweilige Anwendung zu entwickeln. Über Deutschland verteilte Daten aus den wissenschaftlichen Gruppen sollen über eine wissensgraphbasierte Infrastruktur so angesprochen werden können, dass schnelle und komplexe Suchanfragen und Auswertungen möglich werden. Am KIT sind das Scientific Computing Center (SCC) und das Institut für Angewandte Materialien (IAM) beteiligt. Im SCC werden wir mit den Partnern das Digital Materials Environment mit den Infrastrukturdiensten für die Forschungsdaten und ihre Metadaten aufbauen.
NEP stellt wichtige Ressourcen für die Nano-Forschung bereit und entwickelt neue kooperative Arbeitsweisen. Darin wird der Einsatz innovativer Technologien des Forschungsdaten- und Metadatenmangements immer wichtiger. Das SCC trägt zum Aufbau einer gemeinsamen Forschungsdateninfrastruktur mit neuen Methoden zur Metadaten-Anreicherung, Erschließung von großen Datensammlungen und der Bereitstellung virtueller Dienste bei.
Im Rahmen des Joint Lab "Integrated Model and Data Driven Materials Characterization" (MDMC) entwickelt das SDL Materialwissenschaft ein Konzept für eine Daten- und Informationsplattform, um Daten über Materialien als experimentelle Basis für digitale Zwillinge und für die Entwicklung simulationsbasierter Methoden zur Vorhersage von Materialstruktur und -eigenschaften wissensorientiert verfügbar zu machen. Es definiert ein Metadatenmodell zur Beschreibung von Proben und Datensätzen aus experimentellen Messungen und harmonisiert Datenmodelle für die Materialsimulation und korrelative Charakterisierung unter Verwendung von materialwissenschaftlichen Vokabularen und Ontologien.
NFDI4Ing ist ein Konsortium der Ingenieurwissenschaften und fördert das Management technischer Forschungsdaten. NFDI4Ing wurde schon 2017 gegründet und steht in engem Austausch mit Forschenden aller ingenieurwissenschaftlichen Fachgebiete. Das Konsortium bietet einen einzigartigen methodenorientierten und nutzerzentrierten Ansatz, um technische Forschungsdaten FAIR - auffindbar, zugänglich, interoperabel und wiederverwendbar - zu machen. Eine wichtige Herausforderung ist dabei die große Anzahl von Teildisziplinen der Ingenieurwissenschaften und ihre fachspezifischen Eigenheiten. Das KIT ist mit einer Co-Sprecherin, Britta Nestler aus dem Institut für Angewandte Materialien (IAM) und einem Co-Sprecher, Achim Streit aus dem Scientific Computing Center (SCC), beteiligt. Im Rahmen von NFDI4Ing entwickelt und implementiert das SCC in enger Kooperation mit den Partnern die Konzepte für föderierte Forschungsdateninfrastrukturen, Datenmanagement-Prozesse, Repositorien und Metadatenmanagement. Der NFDI4Ing-Antrag https://doi.org/10.5281/zenodo.4015200 beschreibt die geplante Forschungsdateninfrastruktur im Detail.
Die Vision von NFDI4Chem ist die Digitalisierung aller Arbeitsprozesse in der chemischen Forschung. Hierzu soll Infrastruktur auf- und ausgebaut werden, die Forschende dabei unterstützt, Forschungsdaten zu sammeln, zu speichern und zu archivieren, zu verarbeiten und zu analysieren sowie die Daten in Repositorien zusammen mit beschreibenden Metadaten und DOIs zu publizieren und somit referenzierbar und wiederverwendbar zu machen. NFDI4Chem vertritt als Fachkonsortium alle Disziplinen der Chemie und arbeitet dazu eng mit den großen Fachgesellschaften zusammen.
Mit der Helmholtz Metadata Collaboration Plattform startete Ende 2019 ein wichtiges Themenfeld des Helmholtz Inkubators "Information & Data Science", der die Expertise der Helmholtz-Zentren zusammenführt und das Thema „Information & Data Science“ über die Grenzen von Zentren und Forschungsbereichen hinweg gestaltet. Übergeordnetes Ziel der Plattform ist, die qualitative Anreicherung von Forschungsdaten durch Metadaten langfristig voranzutreiben, die Forschenden zu unterstützen – und dies in der Helmholtz-Gemeinschaft und darüber hinaus umzusetzen. Mit dem Arbeitspaket FAIR Data Commons Technologien entwickelt SCC Technologien und Prozesse, um Forschungsdaten aus den Forschungsbereichen der Helmholtz Gemeinschaft und darüber hinaus den Forschenden entsprechend der FAIR Prinzipien zur Verfügung zu stellen. Dies wird auf technischer Ebene durch einen einheitlichen Zugriff auf Metadaten mit Hilfe von standardisierten Schnittstellen erreicht, welche sich an Empfehlungen und Standards orientieren, die innerhalb weltweit vernetzten Forschungsdateninitiativen, z.B. der Research Data Alliance (RDA, https://www.rd-alliance.org/), durch Konsensbildung verabschiedet werden. Für den Forschenden werden diese Schnittstellen durch einfach nutzbare Werkzeuge, allgemein anwendbare Prozesse und Empfehlungen für den Umgang mit Forschungsdaten im wissenschaftlichen Alltag nutzbar gemacht.
EOSC Future antwortet auf die Aufforderung INFRAEOSC-03-2020 zur Integration, Konsolidierung und Vernetzung von e-Infrastrukturen, Forschungsgemeinschaften und Initiativen im Bereich Open Science zu integrieren und zu verbinden, um das EOSC-Portal, EOSC-Core und EOSCExchange der European Open Science Cloud (EOSC) weiterzuentwickeln.
EGI-ACE empowers researchers from all disciplines to collaborate in data- and compute-intensive research across borders through free at point of use services. Building on the distributed computing integration in EOSChub, it delivers the EOSC Compute Platform and contributes to the EOSC Data Commons through a federation of Cloud compute and storage facilities, PaaS services and data spaces with analytics tools and federated access services. The Platform is built on the EGI Federation, the largest distributed computing infrastructure for research. The EGI Federation delivers over 1 Exabyte of research data and 1 Million CPU cores which supported the discovery of the Higgs Boson and the first observation of gravitational waves, while remaining open to new members. The Platform pools the capacity of some of Europe’s largest research data centres, leveraging ISO compliant federated service management. Over 30 months, it will provide more than 82 M CPU hours and 250 K GPU hours for data processing and analytics, and 45 PB/month to host and exploit research data. Its services address the needs of major research infrastructures and communities of practice engaged through the EOSC-hub project. The Platform advances beyond the state of the art through a data-centric approach, where data, tools and compute and storage facilities form a fully integrated environment accessible across borders thanks to Virtual Access. The Platform offers heterogeneous systems to meet different needs, including state of the art GPGPUs and accelerators supporting AI and ML, making the Platform an ideal innovation space for AI applications. The data spaces and analytics tools are delivered in collaboration with tens of research infrastructures and projects, to support use cases for Health, the Green Deal, and fundamental sciences. The consortium builds on the expertise and assets of the EGI federation members, key research communities and data providers, and collaborating initiatives.
The Data Infrastructure Capacities for EOSC (DICE) consortium brings together a network of computing and data centres, research infrastructures, and data repositories for the purpose to enable a European storage and data management infrastructure for EOSC, providing generic services and building blocks to store, find, access and process data in a consistent and persistent way. Specifically, DICE partners will offer 14 state-of-the-art data management services together with more than 50 PB of storage capacity. The service and resource provisioning will be accompanied by enhancing the current service offering in order to fill the gaps still present to the support of the entire research data lifecycle; solutions will be provided for increasing the quality of data and their re-usability, supporting long term preservation, managing sensitive data, and bridging between data and computing resources. All services provided via DICE will be offered through the EOSC Portal and interoperable with EOSC Core via a lean interoperability layer to allow efficient resource provisioning from the very beginning of the project. The partners will closely monitor the evolution of the EOSC interoperability framework and guidelines to comply with a) the rules of participation to onboard services into EOSC, and b) the interoperability guidelines to integrate with the EOSC Core functions. The data services offered via DICE through EOSC are designed to be agnostic to the scientific domains in order to be multidisciplinary and to fulfil the needs of different communities. The consortium aims to demonstrate their effectiveness of the service offering by integrating services with community platforms as part of the project and by engaging with new communities coming through EOSC.
Der Sonderforschungsbereich 980 Episteme in Bewegung‘ untersucht seit 2012 Prozesse des Wissenswandels in europäischen und nicht-europäischen Kulturen vom 3. Jahrtausend vor Christus bis etwa 1750 nach Christus. Seit 2016 unterstützt das SCC durch seine Expertise im modernen Forschungsdatenmanagement beim Sammeln digitaler Indizien für bisher ungelöste Fragen. Das SCC entwickelt im Teilprojekt Informationsinfrastruktur informationstechnologische Verfahren zur Datenerschließung für die Untersuchung und Visualisierung von Wissensbewegungen in langfristig tradierten vormodernen Wissensbeständen am Beispiel von Reisen von Handschriften, Drucken sowie Sarg- und Pyramidentextsprüchen. Basierend auf einem Forschungsdatenrepositorium werden (1) neue Werkzeuge zur Datenanalyse, (2) spezifische Vokabulardienste und (3) innovative Präsentationsschichten entwickelt.
Forschungsdatenmanagement bildet die Grundlage, um beispielsweise moderne Methoden der künstlichen Intelligenz für Forschungsfragen anwenden zu können. Daher ist Forschungsdatenmanagement ein wichtiger Bestandteil des KIT-Zentrums Klima und Umwelt. Im Projekt SmaRD-AI arbeiten am KIT das IWG, IMK, GIK und SCC eng zusammen, um den am KIT vorhandenen Datenschatz an Klima- und Umweltdaten nicht nur zugänglich zu machen, sondern auch über Werkzeuge strukturiert analysieren zu können.
The EOSC Synergy project aims to expand the European Open Science Cloud (EOSC). A team of 25 engineers and scientists will work on the expansion of the European Open Science Cloud (EOSC) by integrating National and Scientific Infrastructures.
EOSC-Pillar will coordinate national Open Science efforts across Austria, Belgium, France, Germany and Italy, and ensure their contribution and readiness for the implementation of the EOSC.
OCR-D ist das Koordinierungsprojekt der Deutschen Forschungsgemeinschaft (DFG) zur Weiterentwicklung von Verfahren der Optical Character Recognition für deutschsprachige Drucke aus dem 16.-19. Jahrhundert. Das wesentliche Ziel ist die Volltexterfassung des gedruckten, deutschen Kulturerbes in diesem Zeitraum.
Das SCC ist ein bedeutender Partner im Projekt EOSC-secretariat.eu, das die Governance für EOSC unterstützt und gleichzeitig mit den wissenschaftlichen Organisationen und Communities an einer umfassenden europäischen Open Science Cloud arbeitet.
Das Projekt bwCard wird von den Universitäten des Landes Baden-Württemberg durchgeführt. Ziel ist eine Föderation, die es den beteiligten Einrichtungen ermöglicht, verlässlich Chipkarten der jeweils anderen Einrichtung in eigene digitale Prozesse und Dienstleistungen zu integrieren.
EOSC-hub möchte u. a. einen einfachen Zugang zu hochqualitativen digitalen Diensten schaffen, die von den pan-europäischen Partnern in einem offenen Service-Katalog angeboten werden.
Ziel des Projekts ist die Entwicklung von neuen Werkzeugen zur Simulation von Schwerionenstrahlen in Targets. Wir möchten die Orts- und Energieverteilung aller Primär- und Sekundärteilchen charakterisieren. Dies ist von Interesse in vielen Feldern: Atomphysik (atomare Wechselwirkung, Ioneneinfang), Kernphysik (Untersuchung der Struktur von Atomkernen), Elektronik (Ablagerung von Elementen), Materialwissenschaften (Analyse von Beschädigungen z.B. eines Tokamaks), Biologie (Untersuchung der Toxikologie von Gewebe durch Ionenanalyse). Die Simulation von schweren Ionen ist schwierig aus zwei Gründen: Zum einen ist die gitterbasierte Simulation von Teilchentransport sehr herausfordernd. Zum anderen basieren die Simulationen auf Messungen der Bremsvermögen der Ionen, und müssen daher als unsicher angesehen werden. Daher entwickeln wir ein neues, Entropie-basiertes Diskretisierungsschema, welches eine Sub-Auflösung unterhalb des numerischen Gitters ermöglicht, und daher geeignet für die Simulation von Strahlen ist. Zusätzlich benutzen wir eine ähnliche Methode zur Behandlung von Unsicherheiten in der Teilchenverteilung, die durch die unsicheren Wirkungsquerschnitte bedingt werden. Unsere Methode ist rechenaufwändig, aber hochgradig parallelisierbar, was sie ideal für moderne Rechnerarchitekturen macht.
Das Pilotprojekt Helmholtz Analytics Framework (HAF) wird die Entwicklung der Datenwissenschaften in der Helmholtz-Gemeinschaft stärken. Gemeinsam mit vier weiteren Helmholtz-Zentren werden in einem Co-Design Ansatz zwischen Domänenwissenschaftler und Datenanalyseexperten herausfordernde Anwendungsprobleme aus den jeweiligen Helmholtz-Zentren untersucht. Konkret handelt es sich dabei um Fragen zur Erdsystemmodellierung, Strukturbiologie, Luft- und Raumfahrt, Neurowissenschaften und der Medizinische Bildgebung.
Die Helmholtz-Data Federation (HDF) ist eine strategische Initiative der Helmholtz-Gemeinschaft, die sich einer der großen Herausforderungen des nächsten Jahrzehnts annimmt: Die Bewältigung der Datenflut in der Wissenschaft, insbesondere aus den großen Forschungsinfrastrukturen der Helmholtz-Zentren.
Durch die Entwicklung eines dezentralen elektronischen Laborbuchs nutzen Forscher und Wissenschaftler am KIT zukünftig auch in der Labordokumentation viele Vorteile der Digitalisierung.
Im Projekt bwITsec wird ein landesweites Rahmenkonzept für die IT-Sicherheit und eine föderative IT-Sicherheitsstruktur entworfen. Das Projekt erarbeitet außerdem einen Plan zur Umsetzung einer CERT-Struktur für die Landesuniversitäten.
In diesem Projekt soll ein generisches Metadatenmanagement für wissenschaftliche Daten etabliert werden, basierend auf einer anwendungsorientierten Metadatenbeschreibung. Die Umsetzung erfolgt begleitend durch Anwender unterschiedlicher und heterogener Anwendungsgebiete.
EUDAT - the collaborative Pan-European infrastructure providing research data services, training and consultancy for Researchers Research Communities Research Infrastructures & Data Centres
Das SCC verstärkt seine Smart Data Aktivitäten und startet gemeinsam mit der TECO-Forschungsgruppe am KIT und der SICOS-BW GmbH in Stuttgart das Smart Data Solution Center Baden-Württemberg (SDSC-BW). Das zugehörige Projekt SDSC-BW wird vom Land Baden-Württemberg gefördert und unterstützt den regionalen Mittelstand bei der Hebung von Wertschöpfungspotentialen mittels innovativer Smart Data Technologien.
Das Projekt CollabFuL: Sichere soziale Zusammenarbeit in Forschung und Lehre zielt darauf ab, eine offene, einheitliche, flexible und datenschutzfreundliche Umgebung für einen sicheren sozialen akademischen Informationsaustausch zu schaffen ...
Es soll langfristig über bessere Erhebung, Sicherung, Analyse und allgemeine Verfüg- und Suchbarkeit von Daten ein Mehrwert für die Forscher geschaffen werden. Als positiver Nebeneffekt können sich Wissenschaftler aus Baden-Württemberg dann auch leichter bei Forschungsförderungsentscheidungen der EU und DFG durchsetzen, weil diese eine Wissensweitergabe auch über Landesgrenzen hinaus stark wünschen und unterstützen.
Im Rahmen dieses Projekts wird das SCC als Archiv-Standort für Baden-Württemberg seine technische Infrastruktur für die langfristige Archivierung von Forschungs- und Bibliotheksdaten ausbauen.
Im Projekt RADAR wird ein entsprechender Service aufgebaut, der in erster Linie Forschenden, Institutionen und Verlagen eine Infrastruktur für die Archivierung und Publikation von Forschungsdaten bietet.