Explainable AI
Methoden und Werkzeuge, die Entscheidungen von KI-Modellen transparent, nachvollziehbar und überprüfbar machen, um Vertrauen, Compliance und Fehlersuche zu unterstützen.
Klassifikation
- KomplexitätHoch
- AuswirkungGeschäftlich
- EntscheidungstypArchitektur
- OrganisationsreifeFortgeschritten
Technischer Kontext
Prinzipien & Ziele
Use Cases & Szenarien
Kompromisse
- Übermäßiges Vertrauen in fehlerhafte oder oberflächliche Erklärungen.
- Datenschutzverletzungen durch zu detaillierte Erklärungen.
- Missbrauch von Erklärungen zur Verschleierung von Entscheidungen.
- Erklärungsanforderungen früh mit Stakeholdern klären.
- Modell-agnostische Methoden kombinieren und validieren.
- Dokumentation der Annahmen, Grenzen und Evaluationsmetriken bereitstellen.
I/O & Ressourcen
- Trainiertes Modell (weights/artefakte)
- Zugriff auf Trainings- und Evaluationsdaten
- Anforderungen von Regulatoren und Stakeholdern
- Erklärungsartefakte (z. B. Feature-Attributionen)
- Audit- und Compliance-Reports
- Visuelle oder textuelle Benutzererklärungen
Beschreibung
Explainable AI (XAI) umfasst Verfahren zur Darstellung und Bewertung der Entscheidungsgrundlagen von Machine-Learning-Modellen. Es ermöglicht Stakeholdern, Modellverhalten zu verstehen, Vorurteile zu erkennen und regulatorische Anforderungen zu adressieren. XAI ist besonders relevant in sicherheits- oder rechtskritischen Domänen wie Gesundheit, Finanzen und Verwaltung.
✔Vorteile
- Erhöhtes Vertrauen von Nutzern und Stakeholdern in Modellentscheidungen.
- Unterstützung von Compliance- und Audit-Anforderungen.
- Verbesserte Fehlererkennung und gezielte Modellverbesserung.
✖Limitationen
- Erklärungen sind oft approximativ und spiegeln nicht immer Kausalität wider.
- Trade-offs zwischen Erklärbarkeit und Modellleistung möglich.
- Interpretationen können subjektiv und für Laien schwer verständlich sein.
Trade-offs
Metriken
- Fidelity
Maß, wie gut die Erklärung das Modellverhalten lokal oder global repräsentiert.
- Stabilität/Konsistenz
Grad der Konsistenz von Erklärungen bei kleinen Änderungen der Eingabedaten.
- Erklärungslatenz
Zeitbedarf zur Generierung einer Erklärung in Produktionsumgebungen.
Beispiele & Implementierungen
Gesundheitsrisiko-Modell mit Shapley-Erklärungen
Einsatz von SHAP zur Aufschlüsselung individueller Risikovorhersagen und zur Erkennung fehlerhafter Merkmale.
Kreditvergabe-Transparenz in der Bankpraxis
Kombination aus regelbasierten und erklärbaren ML-Komponenten zur Erfüllung regulatorischer Berichtspflichten.
Erklärungen im Kundenservice-Chatbot
Integration kurzer, verständlicher Erklärungen zu Empfehlungen des Chatbots zur Verbesserung des Nutzervertrauens.
Implementierungsschritte
Bedarfsanalyse: Stakeholder- und Regulator-Anforderungen ermitteln.
Auswahl von Erklärungsansätzen (model-agnostic vs. model-specific) und Tools.
Integration in ML-Pipeline, Testen der Erklärungsqualität und Monitoring einrichten.
⚠️ Technische Schulden & Engpässe
Tech Debt
- Ad-hoc-Skripte zur Erklärungsberechnung ohne Tests.
- Fehlende Automatisierung für Re-Evaluierung nach Modelländerungen.
- Unzureichende Dokumentation von Erklärungsannahmen und Parametern.
Bekannte Engpässe
Beispiele für Missbrauch
- Saliency-Maps als alleinige Sicherheitsfreigabe verwenden.
- Erklärungen dazu nutzen, Modellfehler zu kaschieren.
- Feature-Importancen als Kausalitätsnachweis interpretieren.
Typische Fallen
- Annahmen über Kausalität nicht prüfen.
- Datenschutzrisiken durch zu detaillierte Erklärungen übersehen.
- Erklärungsmetriken unzureichend testen und dadurch falsche Schlüsse ziehen.
Erforderliche Fähigkeiten
Drivers (Architectural Drivers)
Constraints
- • Begrenzter Zugriff auf sensible oder proprietäre Daten
- • Einhaltung datenschutzrechtlicher Vorgaben
- • Beschränkte Verfügbarkeit geeigneter Erklärungsbibliotheken für alle Modelltypen