Modul: Explainable AI
Schaffe Vertrauen in dein (Blackbox-)Modell und finde weitere Optimierungsmöglichkeiten dank dem Verständnis, welche Kriterien der Algorithmus bei seiner Entscheidung wie stark gewichtet hat.
Eckdaten
- ECTS-Punkte
- 2,5
- Nächster Start
- 17. Januar 2025
- Dauer
- 3 Unterrichtstage
- Unterrichtstage
- 17.1.2025, 24.1.2025, 14.2.2025
- Unterrichtssprache
- Deutsch
- Ort
- FHNW Campus Brugg-Windisch
- Preis
- CHF 1500.–
Allzu häufig wird bei Machine Learning das Hauptaugenmerk auf einen zu optimierenden Wert (z.B. Accuracy, RSME) gelegt, um das beste Modell für einen Anwendungsfall zu finden. Vernachlässigt wird leider immer wieder zu untersuchen, welche Schlüsselfaktoren der Algorithmus schlussendlich verwendet, um diesen optimalen Wert zu erreichen. Hinzu kommt, dass dies bei komplexeren Modellen wie Ensembles oder Neuronalen Netzen, die sehr häufig auch gute Resultate liefern, schwerer ist, da die gewichteten Faktoren nicht einfach anhand der Parameter abgelesen werden können.
Nachfolgendes Beispiel aus der Publikation „‘Why should I trust you?‘ Explaining the Predictions of Any Classifier“ zeigt beim Klassifikationsproblem „Wolf oder Husky“, welche Pixels den Algorithmus bei seiner (Fehl-)Entscheidung am meisten beeinflusst haben: Der Schnee im Hintergrund und nicht das Tier selbst.
Dieser Blick hinter die Kulisse mit Hilfe von Explainable AI ist von unschätzbarem Wert. Im obigen Beispiel kann der Algorithmus dank der durchgeführten Untersuchung nun optimiert werden, da die Trainingsdaten zu einseitig waren. Wenn den Trainingsdaten weitere Bilder von Huskys im Schnee hinzugefügt werden, muss der Algorithmus für die korrekte Klassifizierung andere Faktoren als der Schnee stärker gewichten, um somit besser zu generalisieren.
Ein weiterer Hauptnutzen von Explainable AI ist, dass diese Transparenz auch Vertrauen bei Vorgesetzten und Kunden schafft, da nachvollzogen werden kann, weshalb der Algorithmus so entscheidet. In verschiedenen Bereichen wie beispielsweise der Medizin oder Strafrecht ist bei der Anwendung von ML fundamental, die Beweggründe des Algorithmus nachvollziehen zu können. Spätestens seit der Einführung der DSGVO haben EU Bürger das Recht auf Erklärung bei automatisiert getätigten Entscheidungen durch Algorithmen.
Modulübersicht
In diesem Kurs lernst du einerseits, welche simpleren Machine Learning-Modelle wie interpretiert werden können, aber auch verschiedene generell anwendbare und Model unabhängig Techniken, um die Entscheidungsgrundlagen auch für komplexere Modelle wie Ensembles oder Deep Learning offen legen zu können.