Modulbeschreibung
- Explainable AI
Nummer |
eai
|
ECTS | 3.0 |
Spezifizierung | Modelle mit Hilfe von XAI-Methoden zu verstehen, anzuwenden und zu bewerten. |
Anspruchsniveau | Advanced |
Inhalt | Explainable AI (XAI) ist eine Sammlung von Methoden, die dem Verständnis und der Gewinnung von Erkenntnissen aus Deep-Learning-Modellen dienen. Diese Erkenntnisse können verschiedenen Zwecken dienen, von der Sicherstellung der Modellrobustheit und der Beseitigung von Verzerrungen bis hin zur Förderung wissenschaftlicher Erkenntnisse. Mit der zunehmenden Integration des maschinellen Lernens in die Gesellschaft wächst die Nachfrage nach Modelltransparenz und Rechenschaftspflicht sowohl seitens privater Unternehmen als auch staatlicher Organisationen, was die Bedeutung von qualifizierten XAI-Praktikern unterstreicht. In diesem Modul erwerben die Studierenden die notwendigen Kompetenzen, um Erklärungen auf menschlicher Ebene für die Entscheidungsprozesse zu extrahieren, die Deep-Learning-Modellen in verschiedenen Datenmodalitäten zugrunde liegen. Sie werden in der Lage sein, die Robustheit des Modells zu bewerten und ihre Ergebnisse effektiv an Geschäftsinteressenten, Regulierungsbehörden und Endnutzer zu kommunizieren. |
Lernergebnisse | LO1: XAI-Fibel (tabellarisch) Die Studierenden sind mit dem Vokabular und den grundlegenden Konzepten der XAI vertraut. Sie verstehen die Unterscheidung zwischen lokalen und globalen Erklärungen, intrinsischer und post-hoc Erklärbarkeit, sowie modellspezifischen und modellagnostischen Methoden. Die Studierenden erhalten einen Überblick über die wichtigsten methodischen Kategorien der XAI, darunter Attributionen, kontrafaktische Modelle und Surrogatmodelle. Sie analysieren, bewerten und interpretieren Verzerrungen in tabellarischen Daten unter Verwendung verschiedener plotbasierter Visualisierungsmethoden wie PDPs und ICEs. Die Studierenden verstehen, wie Korrelationen zwischen Merkmalen die Aufgabe der XAI erschweren und wie Shapley-Werte ein theoretisches Rückgrat und eine Lösung für XAI bieten. L02: Lokale Modell-Agnostik (Text) Die Studenten werden zwei leistungsstarke modell- und datenagnostische Techniken anwenden: Local Interpretable Model-Agnostic Explanations (LIME) und Counterfactuals, die es ihnen ermöglichen, textbasierte Sentiment-Daten zu analysieren und zu interpretieren. Sie werden die Theorie hinter beiden Techniken verstehen und ihre Vor- und Nachteile sowie ihren Anwendungsbereich nachvollziehen können. Darüber hinaus werden sie die Auswirkungen erforschen, die Hyperparameter und interpretierbare Darstellungen auf die Qualität von Erklärungen haben können. Darüber hinaus wissen die Studierenden, wie sie mit Hilfe des Open-Source-Tools „BertViz“ ein Transformatormodell für Aufmerksamkeitsmuster anwenden und interpretieren können. L03: Pfadintegrationstechniken (Bild) Die Studierenden werden mit einer Reihe von Pfadintegrationsverfahren wie Integrated Gradients, XRAI und Expected Gradients vertraut gemacht, die darauf abzielen, das Shapley-Wert-Konzept auf Bilder anzuwenden, sowie mit modellspezifischen Verfahren wie CAM und Grad-CAM. Sie werden die Theorie, Stärken, Schwächen und Anwendungsbereiche jeder Technik verstehen und in der Lage sein, diskriminante Bereiche von Bildern zu identifizieren und zu bewerten. |
Modulbewertung | Note |
Baut auf folgenden Modulen auf | Deep Learning |
Modultyp | Portfoliomodul |
Diese Seite teilen: