Skalierbare Methoden der Künstlichen Intelligenz
- Typ: Vorlesung (V)
-
Lehrstuhl:
Zentrale Einrichtungen - Scientific Computing Center
KIT-Fakultäten - KIT-Fakultät für Informatik - Institut für Telematik - ITM Streit
KIT-Fakultäten - KIT-Fakultät für Informatik - Semester: WS 23/24
-
Zeit:
Di. 24.10.2023
14:00 - 15:30
20.21 Pool H
20.21 Kollegiengebäude am Zirkel, Teil 2 (SCC) (UG)
Do. 26.10.2023
09:45 - 11:15, wöchentlich
Do. 02.11.2023
09:45 - 11:15, wöchentlich
Di. 07.11.2023
14:00 - 15:30
20.21 Pool H
20.21 Kollegiengebäude am Zirkel, Teil 2 (SCC) (UG)
Do. 09.11.2023
09:45 - 11:15, wöchentlich
Do. 16.11.2023
09:45 - 11:15, wöchentlich
Di. 21.11.2023
14:00 - 15:30
20.21 Pool H
20.21 Kollegiengebäude am Zirkel, Teil 2 (SCC) (UG)
Do. 23.11.2023
09:45 - 11:15, wöchentlich
Do. 30.11.2023
09:45 - 11:15, wöchentlich
Di. 05.12.2023
14:00 - 15:30
20.21 Pool H
20.21 Kollegiengebäude am Zirkel, Teil 2 (SCC) (UG)
Do. 07.12.2023
09:45 - 11:15, wöchentlich
Do. 14.12.2023
09:45 - 11:15, wöchentlich
Di. 19.12.2023
14:00 - 15:30
20.21 Pool H
20.21 Kollegiengebäude am Zirkel, Teil 2 (SCC) (UG)
Do. 21.12.2023
09:45 - 11:15, wöchentlich
Do. 11.01.2024
09:45 - 11:15, wöchentlich
Di. 16.01.2024
14:00 - 15:30
20.21 Pool H
20.21 Kollegiengebäude am Zirkel, Teil 2 (SCC) (UG)
Do. 18.01.2024
09:45 - 11:15, wöchentlich
Do. 25.01.2024
09:45 - 11:15, wöchentlich
Di. 30.01.2024
14:00 - 15:30
20.21 Pool H
20.21 Kollegiengebäude am Zirkel, Teil 2 (SCC) (UG)
Do. 01.02.2024
09:45 - 11:15, wöchentlich
Do. 08.02.2024
09:45 - 11:15, wöchentlich
Di. 13.02.2024
14:00 - 15:30
20.21 Pool H
20.21 Kollegiengebäude am Zirkel, Teil 2 (SCC) (UG)
Do. 15.02.2024
09:45 - 11:15, wöchentlich
-
Dozent:
Dr. Charlotte Debus
Dr. Markus Götz
Dr. Marie Weiel - SWS: 3
- LVNr.: 2400004
- Hinweis: Präsenz
Inhalt | Die Methoden der künstlichen Intelligenz (KI) haben in der letzten Dekade zu erstaunlichen Durchbrüchen in Wissenschaft und Technik geführt. Dabei zeichnet sich zunehmend ein Trend zur Verarbeitung von immer größeren Datenmengen und dem Einsatz von paralleler und verteilten Rechenressourcen ab [1]. Ein prominentes Beispiel ist das Maschinenübersetzungsalgorithmus Generative Pre-trained Transformer 3 (GPT-3) [2] welches mit 175 Milliarden trainierbaren Parametern auf 285.000 Prozessorkernen und 10.000 Grafikkarten die Grenzen herkömmlicher KI-Hardware sprengt. In der Vorlesung werden den Studierenden die Parallelisierung und Skalierbarkeit verschiedener KI Algorithmen nähergebracht. Hierbei liegt der Fokus auf den Vorteilen und Ansätzen des parallelen Rechnens für KI Methoden, verschiedene verfügbaren Softwarepaketen zur Implementierung sowie den algorithmenspezifischen Herausforderungen. Diese werden anhand verschiedener Beispiele und Algorithmenklassen dargestellt, um die vielfältigen Anwendungsmöglichkeiten für skalierbare künstliche Intelligenz zu illustrieren:
Darüber hinaus werden auf die Eigenheiten Datenformaten und -management, gängiger Maschinenmodelle sowie auf den Einsatz neuartiger Hardware, z.B. Quantencomputer oder neuromorphe Geräte, diskutiert werden. |
Vortragssprache | Deutsch/Englisch |
Literaturhinweise | [1] Ben-Nun, Tal, and Torsten Hoefler. "Demystifying parallel and distributed deep learning: An in-depth concurrency analysis." ACM Computing Surveys (CSUR) 52.4 (2019): 1-43. [2] Brown, Tom B., et al. "Language models are few-shot learners." arXiv preprint arXiv:2005.14165 (2020). |