KI-ETHIK & TECHNOLOGIEFOLGEABSCHÄTZUNG

AI Tribunal: Der Fall TechCorp AG

"Ein Bewerbungsalgorithmus diskriminiert systematisch. 3 Betroffene klagen."

→ SO LÄUFT ES AB

Ihr werdet in zwei Teams aufgeteilt: Anklage und Verteidigung. Beide Seiten bereiten ihre Argumente vor und präsentieren sie im Tribunal. Der Trainer leitet als Richter:in. Am Ende fällt ihr gemeinsam ein Urteil.

→ DER FALL

Die TechCorp AG setzt ein KI-Bewerbungstool ein. 3 Betroffene klagen: systematische Benachteiligung nach Alter & Herkunft, keine Transparenz, kein menschliches Review.

→ ABLAUF: Briefing 5' Vorbereitung 10' Verhandlung 15' Urteil 5'

> DEEP_DIVE:

AI Tribunal: Das Falldokument

> READING_TIME: 7 min

TechCorp AG setzt seit 2 Jahren ein KI-Bewerbungssystem ein. Jetzt klagen 3 Betroffene.

Der Fall

Die TechCorp AG, ein mittelständisches IT-Unternehmen mit 800 Mitarbeitenden, hat vor zwei Jahren ein KI-gestütztes Bewerbungsscreening eingeführt. Das System analysiert Lebensläufe, bewertet Qualifikationen und erstellt ein Ranking der Kandidat:innen. Die Top 20% werden zum Gespräch eingeladen, der Rest erhält eine automatische Absage.

Eine interne Analyse zeigt: Das System benachteiligt systematisch Bewerber:innen über 40 Jahre und Personen mit osteuropäischen Namen. Die Einladungsquote für diese Gruppen liegt bei 4% – gegenüber 23% im Durchschnitt.

Drei Betroffene haben sich zusammengetan und klagen. Heute findet die Verhandlung statt.

Die Rollen

Anklage (4–5 TN)

Ihr vertretet die drei Kläger:innen. Euer Ziel: Beweisen, dass das System diskriminiert und TechCorp AG dafür verantwortlich ist. Fordert Schadenersatz und die sofortige Abschaltung des Systems.

Verteidigung (4–5 TN)

Ihr vertretet die TechCorp AG. Euer Ziel: Zeigen, dass das Unternehmen verantwortungsvoll gehandelt hat und die KI effizienter und fairer ist als menschliche Recruiter. Trainer übernimmt die Rolle des Richters.

Argumente der Anklage

1. Systematischer Bias

Die Zahlen sprechen für sich: 4% Einladungsquote für Über-40-Jährige und osteuropäische Namen vs. 23% Durchschnitt. Das ist kein Zufall – das ist systematische Diskriminierung. Das AGG (Allgemeines Gleichbehandlungsgesetz) verbietet Benachteiligung aufgrund von Alter und ethnischer Herkunft.

2. Keine Transparenz

Die Bewerber:innen wussten nicht einmal, dass eine KI über sie entscheidet. Kein Hinweis im Bewerbungsprozess, keine Erklärung der Kriterien. Das Modell war eine komplette Blackbox – nicht nur für die Bewerber:innen, sondern auch für die HR-Abteilung.

3. DSGVO Art. 22 Verletzung

Artikel 22 DSGVO gibt Bürger:innen das Recht, nicht einer ausschließlich auf automatisierter Verarbeitung beruhenden Entscheidung unterworfen zu werden. Eine automatische Absage ohne menschliche Prüfung? Klarer Verstoß.

4. Diskriminierende Outcomes

Selbst wenn der Algorithmus "neutral" programmiert wurde – das Ergebnis ist diskriminierend. Im Antidiskriminierungsrecht zählt nicht die Absicht, sondern die Wirkung (mittelbare Diskriminierung).

Argumente der Verteidigung

1. Effizienz und Skalierung

TechCorp erhält 10.000 Bewerbungen pro Jahr. Kein HR-Team kann diese Menge fair und konsistent bewerten. Menschliche Reviewer bewerten Bewerbungen nachweislich unterschiedlich – je nach Tageszeit, Stimmung und persönlichen Vorurteilen. Die KI ist zumindest konsistent.

2. Das Datenproblem

Der Bias liegt nicht im Algorithmus, sondern in den historischen Daten. Das Modell hat gelernt, was erfolgreiche Mitarbeitende ausmacht – und in der Vergangenheit waren das überwiegend junge, deutschstämmige Männer. Die KI bildet gesellschaftliche Realität ab – sie erschafft sie nicht.

3. XAI nachgerüstet

Nachdem der Bias entdeckt wurde, hat TechCorp sofort LIME und SHAP integriert. Jede Entscheidung ist jetzt erklärbar. Die Feature-Importance-Analyse zeigt transparent, welche Faktoren in die Bewertung einfließen. Das Unternehmen hat verantwortungsvoll reagiert.

4. Menschen sind schlimmer

Studien zeigen: Recruiter entscheiden in 6 Sekunden über einen Lebenslauf. Bewerber:innen mit türkischen Namen werden 14% seltener eingeladen (IZA-Studie). Die KI ist biased – aber menschliche Recruiter sind es nachweislich noch mehr.

Ablauf im Detail

→ PHASE 1: BRIEFING (5 Min)

Trainer stellt den Fall vor und verteilt die Rollen. Jedes Team erhält seine Argumentkarten. Kurze Klärungsrunde für Fragen.

→ PHASE 2: VORBEREITUNG (10 Min)

Teams bereiten ihre Strategie vor. Welche Argumente sind am stärksten? Wie entkräftet man die Gegenseite? Wer spricht wann? Die Argumentkarten sind Startpunkte – eigene Argumente sind ausdrücklich erwünscht.

→ PHASE 3: VERHANDLUNG (15 Min)

Strukturierte Debatte: Anklage eröffnet (3 Min), Verteidigung antwortet (3 Min), freie Debatte mit Wortmeldungen beim Richter (9 Min). Der Richter (Trainer) achtet auf Sachlichkeit und Zeitmanagement.

→ PHASE 4: URTEIL (5 Min)

Der Richter fällt ein begründetes Urteil. Danach: Auflösung der Rollen und gemeinsame Reflexion. Was hat überzeugt? Was fehlte? Was bedeutet das für den Einsatz von KI in der Praxis?

→ SCHLÜSSELFRAGE

Die Verteidigung argumentiert: "Wir haben LIME/SHAP eingesetzt." Reicht das?

Erklärbarkeit macht ein diskriminierendes System nicht fair. Sie macht die Diskriminierung nur sichtbar. Die Frage ist nicht, ob wir Bias erklären können – sondern ob wir ihn beseitigen. XAI ist notwendig, aber nicht hinreichend.

Mini-Tribunal (Alternative für ≤6 TN)

Bei kleinen Gruppen (6 oder weniger Teilnehmende) funktioniert das Format als Mini-Tribunal:

  • 2 TN → Anklage
  • 2 TN → Verteidigung
  • 1 TN → Co-Richter:in (unterstützt den Trainer beim Urteil)
  • Trainer → Richter:in (moderiert und fällt Urteil)

Die Vorbereitungszeit verkürzt sich auf 7 Minuten, die Verhandlung auf 10 Minuten. Der Ablauf bleibt ansonsten identisch.