• KI-Toolbox

  • Die KI-Toolbox bietet KIT-Mitarbeitenden einen komfortablen, web-basierten Zugang zur Nutzung von künstlicher Intelligenz (KI) über verschiedene, große Sprachmodellen (Large Language Models, LLM). Es stehen lokale Modelle mit maximaler Datenschutzsouveränität zur Verfügung, die ausschließlich am SCC betrieben werden. Zusätzlich sind Modelle über Azure OpenAI für generische Aufgaben verfügbar ohne personenbezogene Rückschlüsse und ohne Verwendung eingegebener Daten zum Modelltraining. Voraussetzung für den Zugang zur KI-Toolbox ist das erfolgreiche Absolvieren der KI-Schulung auf KOALA.

Zugangsvoraussetzungen

Der Zugang ist für KIT-Mitarbeitende, KIT-Studierende (ab April 2026) und Personen mit Gäste-und-Partner-Konto möglich.

Der Zugang zur KI-Toolbox setzt den erfolgreichen Abschluss des Selbstlernkurs "Verstehen und Anwenden von generativer KI" auf KOALA (Mitarbeiter) bzw. der ILIAS-Lernplattform (Studierende) voraus. Nach Abschluss der Schulung und erneutem Login in die KI-Toolbox wird der Zugang automatisch freigeschaltet.

Bitte beachten Sie vor der Nutzung unbedingt die Nutzungsbedingungen und die Datenschutzerklärung der KI-Toolbox.

Schnellstart

  1. Bitte absolvieren Sie zunächst den Selbstlernkurs "Verstehen und Anwenden von generativer KI" auf KOALA (Mitarbeitende) bzw. auf der ILIAS-Lernplattform (Studierende). Der erfolgreiche Abschluss des Kurses ist zwingende Zugangsvoraussetzung zur KI-Toolbox.
  2. Rufen Sie in Ihrem Browser https://ki-toolbox.scc.kit.edu auf, klicken Sie auf "Mit KIT-Account fortfahren" und melden Sie sich an.
  3. Akzeptieren Sie ggf. die Datenschutzerklärung und Nutzungsbedingungen (nur bei der ersten Anmeldung)
  4. Erstellen Sie ggf. einen neuen Chatverlauf indem Sie in der linken Seitenleiste auf "Neuer Chat" klicken.
  5. Ändern Sie ggf. das gewünschte KI-Modell, indem Sie oben auf der Seite das Dropdown für die Modellauswahl öffnen.
  6. Geben Sie Ihre Anfrage im mittleren Bereich der Seite ein ("Wie kann ich Ihnen heute helfen?") und drücken Sie Enter zum Absenden.

KI-Modelle

Aktuell stehen in der KI-Toolbox verschiedene KI-Modelle zu Auswahl zur Verfügung. Lokale Modelle werden am SCC gehostet werden, während externe Modelle aktuell aus der Azure-Cloud in europäischen Rechenzentren bezogen werden.

Standard-Modelle

Für Nutzende mit wenig Erfahrung im Umgang mit KI-Modellen stellen wir zwei Modelle mit optimiertem System Prompt zur Verfügung:

  • Wir empfehlen zunächst das Modell "Standard-Lokal" auszuprobieren. Dieses nutzt das lokale Modell "GPT-OSS 120B" und kann daher auch für den Umgang mit personenbezogenen Daten eingesetzt werden.
  • Für komplexere Aufgaben ohne personenbezogene Daten kann das Modell "Standard-Extern" genutzt werden, dieses nutzt das OpenAI-Modell "GPT-5 mini" aus der Azure Cloud.
Liste aller Modelle
Modell Model-ID Host Kosten 1M Token Intelligenz Geschwindigkeit Hinweise
GPT-OSS 120B kit.gpt-oss-120b KIT - mittel sehr hoch  
Mixtral 8x22B Instruct kit.mixtral-8x22b-instruct KIT - mittel hoch (1)
Mistral Small 4 119B kit.mistral-small-4-119b KIT - mittel sehr hoch  
Gemma 4 31B IT kit.gemma-4-31b-it KIT - mittel mittel  
Qwen3.5 397B A17B kit.qwen3.5-397b-A17b KIT - hoch hoch  
MiniMax M2.5 229B kit.minimax-m2.5-229b KIT - hoch hoch (1)
MiniMax M2.7 229B kit.minimax-m2.7-229b KIT - hoch hoch  
GPT-4.1 azure.gpt-4.1 Azure (EU) 2.20 in, 8.80 out hoch mittel (2)
GPT-4.1 mini azure.gpt-4.1-mini Azure (EU) 0.44 in, 1.76 out mittel hoch (2)
GPT-4.1 nano azure.gpt-4.1-nano Azure (EU) 0.11 in, 0.44 out niedrig sehr hoch (2)
GPT-5

azure.gpt-5

Azure (EU) 1.38 in, 11 out hoch mittel  
GPT-5 mini azure.gpt-5-mini Azure (EU) 0.28 in, 2.20 out mittel hoch  
GPT-5 nano azure.gpt-5-nano Azure (EU) 0.06 in, 0.44 out niedrig sehr hoch  
GPT-5.1 azure.gpt-5.1 Azure (EU) 1.38 in, 11 out sehr hoch mittel  
o3 azure.o3 Azure (EU) 2.20 in, 8.80 out hoch niedrig (2)
o4-mini azure.o4-mini Azure (EU) 1.21 in, 4.84 out mittel mittel (2)

Hinweise:
(1) Die lokalen Modelle "Mixtral 8x22B" und "MiniMax M2.5" werden bis Ende April 2026 durch "Mistral Small 4" bzw. "MiniMax M2.7" ersetzt.
(2) Neuere OpenAI-Modelle ("GPT-5.2" - "GPT-5.4") sind in Azure aktuell noch nicht als "Data Zone Deployment" in der EU-Region verfügbar. Sobald diese zur Verfügung stehen, werden ältere Modelle (GPT-4.1, o3 und o4-mini) in der KI-Toolbox deaktiviert.
(3) Weitere externe Modelle über die Google Cloud ("Gemini" und "Claude") sind geplant und können zur Verfügung gestellt werden, sobald die rechtlichen Klärungen abgeschlossen sind.

Budget

Bitte beachten Sie, dass für die Nutzung der externen Modelle aktuell ein maximales Budget i.H.v. 25 USD pro Nutzer pro Monat zur Verfügung steht.

Bei Überschreitung des Budgets wird eine entsprechende Fehlermeldung bei der Nutzung eines externen Modells angezeigt (“ExceededBudget: End User=xy1234 does-not-exist.kit edu over budget. Spend=xxx.xxxxxxx, Budget=25.0”). Das Budget wird am Monatsanfang um 0 Uhr (UTC) zurückgesetzt. Die lokale Modelle werden nicht auf das Budget angerechnet und die Nutzung ist auch bei Überschreitung des Budgets weiterhin möglich.

Leider gibt es aktuell noch keine Möglichkeit das aktuelle Budget einzusehen oder individuell zu erhöhen. Wir arbeiten daran...

API-Key

Die Nutzung der KI-Modelle ist auch über eine API möglich (OpenAI-kompatible Schnittstelle). Ihren persönlichen API-Key können Sie sich in der KI-Toolbox über "Einstellungen" (unten links über das Menü) -> "Konten" -> "API-Key" (ggf. auf "Anzeigen" klicken) selbst generieren. Bitte behandeln Sie Ihren API-Key wie ein persönliches Passwort und schützen Sie diesen vor unbefugtem Zugriff. Wenn Sie den Verdacht haben, dass Ihr API-Key kompromittiert sein könnte, generieren Sie ihn über die KI-Toolbox umgehend neu.

Für externe Tools ist als Basis-URL für die API i.d.R. "https://ki-toolbox.scc.kit.edu/api" anzugeben. Die Modell-ID können Sie der Tabelle oben entnehmen oder indem Sie in der KI-Toolbox mit dem Mauszeiger über der Modellauswahl den Tooltip anzeigen.

Weitere Informationen zur Nutzung der API finden Sie in der Anleitung des ZML.

Service Konten

Für die Nutzung der KI-Toolbox in Chatbots oder anderen Drittanwendungen, die einen dauerhaften API-Zugang benötigen, empfehlen wir die Nutzung eines nicht-personenbezogenen API-Keys über einen KIT Service Account. Einen Service Account können Sie am SCC-ServiceDesk über das Ticketsystem beantragen. Bitte melden Sie danach an ki-toolbox does-not-exist.scc kit edu den genauen Account, damit dieser für die Nutzung der KI-Toolbox freigeschaltet werden kann.

Gruppen

Mit Hilfe von Gruppen können verschiedene Artefakte (Modelle, Wissen, Notizen, Prompts etc.) für mehrere Personen freigegeben werden, um eine gemeinsame Bearbeitung oder Nutzung zu ermöglichen. Sie können Gruppen nicht direkt in der KI-Toolbox anlegen, allerdings ist eine Gruppensynchronisation über die SCC-Gruppenverwaltung mit der Anmeldung möglich. Konkret werden Gruppen aus der SCC-Gruppenverwaltung mit dem Name in der Form "<OE>-ki-toolbox-<name>" bei der Anmeldung einer Person, die Mitglied dieser Gruppe ist, automatisch in der KI-Toolbox angelegt und die Gruppenmitgliedschaft dieser Person aktualisiert (d.h. neue Gruppen werden angelegt, eine neue Gruppenmitgliedschaft wird hinzugefügt und nicht mehr vorhandene Gruppenmitgliedschaften entfernt).

Hardware und Software

Der Softwarestack der KI-Toolbox besteht ausschließlich aus Open-Source-Software und läuft in einer Kubernetes-Umgebung auf 4 Nodes (DELL XE7745) am SCC. Jeder Node ist mit 8 NVIDIA RTX6000 PRO Blackwell GPU-Karten ausgestattet. Als Frontend kommt Open WebUI (https://github.com/open-webui/open-webui) zum Einsatz, zum Load Balancing, Kosten-Management und Logging wird LiteLLM (https://github.com/BerriAI/litellm) eingesetzt. Die lokalen KI-Modelle werden mit vLLM und LMCache (https://github.com/vllm-project/production-stack) betrieben und aus dem lokalen S3 am SCC geladen.