> DEEP_DIVE:
AI Tribunal: Das Falldokument
> READING_TIME: 7 min
TechCorp AG setzt seit 2 Jahren ein KI-Bewerbungssystem ein. Jetzt klagen 3 Betroffene.
Der Fall
Die TechCorp AG, ein mittelständisches IT-Unternehmen mit 800 Mitarbeitenden, hat vor zwei Jahren ein KI-gestütztes Bewerbungsscreening eingeführt. Das System analysiert Lebensläufe, bewertet Qualifikationen und erstellt ein Ranking der Kandidat:innen. Die Top 20% werden zum Gespräch eingeladen, der Rest erhält eine automatische Absage.
Eine interne Analyse zeigt: Das System benachteiligt systematisch Bewerber:innen über 40 Jahre und Personen mit osteuropäischen Namen. Die Einladungsquote für diese Gruppen liegt bei 4% – gegenüber 23% im Durchschnitt.
Drei Betroffene haben sich zusammengetan und klagen. Heute findet die Verhandlung statt.
Die Rollen
Anklage (4–5 TN)
Ihr vertretet die drei Kläger:innen. Euer Ziel: Beweisen, dass das System diskriminiert und TechCorp AG dafür verantwortlich ist. Fordert Schadenersatz und die sofortige Abschaltung des Systems.
Verteidigung (4–5 TN)
Ihr vertretet die TechCorp AG. Euer Ziel: Zeigen, dass das Unternehmen verantwortungsvoll gehandelt hat und die KI effizienter und fairer ist als menschliche Recruiter. Trainer übernimmt die Rolle des Richters.
Argumente der Anklage
1. Systematischer Bias
Die Zahlen sprechen für sich: 4% Einladungsquote für Über-40-Jährige und osteuropäische Namen vs. 23% Durchschnitt. Das ist kein Zufall – das ist systematische Diskriminierung. Das AGG (Allgemeines Gleichbehandlungsgesetz) verbietet Benachteiligung aufgrund von Alter und ethnischer Herkunft.
2. Keine Transparenz
Die Bewerber:innen wussten nicht einmal, dass eine KI über sie entscheidet. Kein Hinweis im Bewerbungsprozess, keine Erklärung der Kriterien. Das Modell war eine komplette Blackbox – nicht nur für die Bewerber:innen, sondern auch für die HR-Abteilung.
3. DSGVO Art. 22 Verletzung
Artikel 22 DSGVO gibt Bürger:innen das Recht, nicht einer ausschließlich auf automatisierter Verarbeitung beruhenden Entscheidung unterworfen zu werden. Eine automatische Absage ohne menschliche Prüfung? Klarer Verstoß.
4. Diskriminierende Outcomes
Selbst wenn der Algorithmus "neutral" programmiert wurde – das Ergebnis ist diskriminierend. Im Antidiskriminierungsrecht zählt nicht die Absicht, sondern die Wirkung (mittelbare Diskriminierung).
Argumente der Verteidigung
1. Effizienz und Skalierung
TechCorp erhält 10.000 Bewerbungen pro Jahr. Kein HR-Team kann diese Menge fair und konsistent bewerten. Menschliche Reviewer bewerten Bewerbungen nachweislich unterschiedlich – je nach Tageszeit, Stimmung und persönlichen Vorurteilen. Die KI ist zumindest konsistent.
2. Das Datenproblem
Der Bias liegt nicht im Algorithmus, sondern in den historischen Daten. Das Modell hat gelernt, was erfolgreiche Mitarbeitende ausmacht – und in der Vergangenheit waren das überwiegend junge, deutschstämmige Männer. Die KI bildet gesellschaftliche Realität ab – sie erschafft sie nicht.
3. XAI nachgerüstet
Nachdem der Bias entdeckt wurde, hat TechCorp sofort LIME und SHAP integriert. Jede Entscheidung ist jetzt erklärbar. Die Feature-Importance-Analyse zeigt transparent, welche Faktoren in die Bewertung einfließen. Das Unternehmen hat verantwortungsvoll reagiert.
4. Menschen sind schlimmer
Studien zeigen: Recruiter entscheiden in 6 Sekunden über einen Lebenslauf. Bewerber:innen mit türkischen Namen werden 14% seltener eingeladen (IZA-Studie). Die KI ist biased – aber menschliche Recruiter sind es nachweislich noch mehr.
Ablauf im Detail
→ PHASE 1: BRIEFING (5 Min)
Trainer stellt den Fall vor und verteilt die Rollen. Jedes Team erhält seine Argumentkarten. Kurze Klärungsrunde für Fragen.
→ PHASE 2: VORBEREITUNG (10 Min)
Teams bereiten ihre Strategie vor. Welche Argumente sind am stärksten? Wie entkräftet man die Gegenseite? Wer spricht wann? Die Argumentkarten sind Startpunkte – eigene Argumente sind ausdrücklich erwünscht.
→ PHASE 3: VERHANDLUNG (15 Min)
Strukturierte Debatte: Anklage eröffnet (3 Min), Verteidigung antwortet (3 Min), freie Debatte mit Wortmeldungen beim Richter (9 Min). Der Richter (Trainer) achtet auf Sachlichkeit und Zeitmanagement.
→ PHASE 4: URTEIL (5 Min)
Der Richter fällt ein begründetes Urteil. Danach: Auflösung der Rollen und gemeinsame Reflexion. Was hat überzeugt? Was fehlte? Was bedeutet das für den Einsatz von KI in der Praxis?
→ SCHLÜSSELFRAGE
Die Verteidigung argumentiert: "Wir haben LIME/SHAP eingesetzt." Reicht das?
Erklärbarkeit macht ein diskriminierendes System nicht fair. Sie macht die Diskriminierung nur sichtbar. Die Frage ist nicht, ob wir Bias erklären können – sondern ob wir ihn beseitigen. XAI ist notwendig, aber nicht hinreichend.
Mini-Tribunal (Alternative für ≤6 TN)
Bei kleinen Gruppen (6 oder weniger Teilnehmende) funktioniert das Format als Mini-Tribunal:
- 2 TN → Anklage
- 2 TN → Verteidigung
- 1 TN → Co-Richter:in (unterstützt den Trainer beim Urteil)
- Trainer → Richter:in (moderiert und fällt Urteil)
Die Vorbereitungszeit verkürzt sich auf 7 Minuten, die Verhandlung auf 10 Minuten. Der Ablauf bleibt ansonsten identisch.