> DEEP_DIVE:
XAI: Erklärbare KI verstehen
> READING_TIME: 8 min
Du bewirbst dich um einen Kredit. Alles ausgefüllt, alles eingereicht. Dann kommt die Antwort: Abgelehnt. Ohne Begründung.
→ SO LÄUFT ES AB
Ihr erlebt ein Kreditscoring-Szenario in drei Phasen: Zuerst die Blackbox – Antrag eingeben, Ablehnung erhalten, kein Grund. Dann LIME – ihr seht, welche Faktoren bei diesem einen Fall ausschlaggebend waren. Dann SHAP – ihr analysiert, welche Faktoren das Modell insgesamt treiben. Am Ende diskutiert ihr: Welches Erklärbarkeitsniveau brauchen Kund:innen, Aufsichtsbehörden, Entwickler?
Das Blackbox-Problem
Stell dir vor: Du brauchst einen Kredit für eine Wohnung. Du gibst alle Daten ein – Alter, Einkommen, Beruf, Wohnort, Familienstand. Ein Algorithmus berechnet deinen Score. Das Ergebnis: Abgelehnt.
Du fragst nach dem Grund. Die Bank sagt: "Das entscheidet unser System." Kein Mensch kann dir erklären, warum. Nicht weil sie es nicht wollen – sondern weil sie es selbst nicht wissen. Der Algorithmus ist eine Blackbox: Daten rein, Entscheidung raus, dazwischen Millionen von Parametern, die kein Mensch nachvollziehen kann.
Das ist nicht hypothetisch. Genau so funktionieren neuronale Netze in der Praxis. Und genau hier beginnt das Problem: Wenn niemand erklären kann, warum eine Entscheidung gefallen ist, wie soll man sie dann anfechten? Wie soll man Diskriminierung erkennen?
LIME: Local Interpretable Model-agnostic Explanations
LIME beantwortet eine ganz konkrete Frage: Warum hat das Modell bei DIESER einen Eingabe DIESE Entscheidung getroffen?
Die Idee ist elegant: LIME verändert die Eingabedaten leicht – ein bisschen mehr Einkommen hier, ein anderer Wohnort dort – und beobachtet, wie sich die Vorhersage ändert. Daraus baut es ein einfaches, verständliches Modell (z.B. eine lineare Regression), das die Entscheidung lokal approximiert.
Beispiel: Kreditentscheidung mit LIME
LIME zeigt: Bei deinem Antrag waren Alter (28) und Beschäftigungsdauer (8 Monate) die ausschlaggebenden Faktoren für die Ablehnung. Dein Einkommen war kein Problem. Jetzt weißt du: Nach einem Jahr im Job steigen deine Chancen deutlich.
Stärke: LIME ist modell-agnostisch – es funktioniert mit jedem Algorithmus, egal ob neuronales Netz, Random Forest oder Gradient Boosting. Man braucht keinen Zugang zum Innenleben des Modells.
Schwäche: LIME erklärt nur einzelne Entscheidungen. Um das Gesamtverhalten des Modells zu verstehen, braucht man etwas anderes.
SHAP: SHapley Additive exPlanations
SHAP kommt aus der Spieltheorie. Die Grundidee: Jedes Feature (Alter, Einkommen, Wohnort...) ist ein "Spieler" in einem Team. SHAP berechnet den fairen Beitrag jedes Spielers zum Gesamtergebnis – basierend auf den sogenannten Shapley-Werten.
Konkret bedeutet das: SHAP betrachtet alle möglichen Kombinationen von Features und berechnet, wie viel jedes einzelne Feature zur Vorhersage beiträgt. Das Ergebnis ist eine vollständige Aufschlüsselung: Feature X hat die Vorhersage um +0.3 erhöht, Feature Y um -0.1 gesenkt.
Beispiel: Kreditmodell mit SHAP
SHAP zeigt über alle 10.000 Anträge hinweg: Der wichtigste Faktor ist das Einkommen (35% Einfluss), gefolgt von Beschäftigungsdauer (22%) und Schufa-Score (18%). Wohnort hat nur 3% Einfluss – aber systematisch zu Ungunsten bestimmter Postleitzahlen. Das ist ein Hinweis auf strukturelle Diskriminierung.
Stärke: SHAP liefert sowohl lokale als auch globale Erklärungen. Die Shapley-Werte sind mathematisch fundiert und garantieren faire Zuordnung.
Schwäche: Die Berechnung ist rechenintensiv – bei vielen Features und großen Datensätzen kann es lange dauern.
LIME vs. SHAP: Wann was?
LIME nutzen, wenn...
- Ihr eine einzelne Entscheidung erklären müsst
- Der Kunde fragt: "Warum wurde ICH abgelehnt?"
- Ihr schnell ein Ergebnis braucht
- Das Modell eine Blackbox ist (kein Quellcode-Zugang)
SHAP nutzen, wenn...
- Ihr das Gesamtmodell verstehen wollt
- Auditor fragt: "Ist das Modell fair?"
- Ihr systematische Biases aufdecken wollt
- Ihr Feature-Importance für alle Entscheidungen braucht
→ KERNAUSSAGE
Erklärbarkeit ist nicht optional – sie ist ein Recht.
EU AI Act Artikel 13 verlangt: Hochrisiko-KI-Systeme müssen so gestaltet sein, dass ihr Betrieb hinreichend transparent ist, damit Betreiber die Ausgaben des Systems interpretieren und angemessen verwenden können. LIME und SHAP sind Werkzeuge, um dieses Recht einzulösen.