KI-ETHIK & TECHNOLOGIEFOLGEABSCHÄTZUNG

Case Study: "KI-Management"

> MISSION_BRIEFING

Empfehlung an den Vorstand

SZENARIO

KI-System zur automatischen Schadensbewertung.
Modell: Blackbox (Historische Daten)

ZIELE (VORSTAND)

30% Kostenreduktion

"Schnellere Bearbeitung."

IHRE EMPFEHLUNG MUSS ENTHALTEN:

  • 01 Go / No-Go Entscheidung?
  • 02 Risikoklasse (EU AI Act)?
  • 03 XAI-Strategie (Blackbox)?
  • 04 Ethische Leitplanken?
  • 05 Interne Kommunikation?
ZEITPLAN:
BRIEFING (5')
GRUPPEN (15')
PRÄSENTATION (10')

> DEEP_DIVE:

Case Study: Das vollständige Handout

> READING_TIME: 5 min

Ihr seid das KI-Management-Team eines Versicherungsunternehmens. Der Vorstand will eine Entscheidung.

→ SO LÄUFT ES AB

Wir arbeiten in 2 Gruppen à ca. 5 Personen.
Eure Gruppe ist ein KI-Management-Team. Ihr lest das Szenario, diskutiert die 5 Punkte und erarbeitet eine Empfehlung an den Vorstand. Dann präsentiert ihr eure Entscheidung in 3 Minuten. Die anderen Gruppen dürfen Nachfragen stellen.

Das Szenario

Ein mittelständisches Versicherungsunternehmen mit 2.000 Mitarbeitenden prüft die Einführung eines KI-Systems zur automatisierten Schadensbewertung. Das System ist ein Blackbox-Modell, trainiert auf historischen Schadensdaten der letzten 15 Jahre.

Es bewertet eingereichte Schadensmeldungen, schätzt die Höhe der Erstattung und empfiehlt Annahme oder Ablehnung. Bei Routinefällen soll es autonom entscheiden.

Vorstandserwartung

„30% Kostenreduktion, schnellere Bearbeitung.“

Der Vorstand sieht das KI-System als strategischen Wettbewerbsvorteil. Bearbeitungszeiten sollen von durchschnittlich 14 Tagen auf 48 Stunden sinken. Die Abteilung Schadensbewertung (120 Mitarbeitende) soll um 60% reduziert werden.

Bedenken der Belegschaft

„Werden wir ersetzt?“

Der Betriebsrat hat bereits Bedenken angemeldet. Die Mitarbeitenden in der Schadensbewertung sind besorgt um ihre Arbeitsplätze. Gleichzeitig gibt es Zweifel an der Fairness des Systems: Historische Daten könnten Diskriminierungsmuster enthalten (z.B. höhere Ablehnungsquoten in bestimmten Postleitzahlgebieten).

Regulatorischer Kontext

Versicherungen fallen laut EU AI Act in den Bereich Hochrisiko. KI-basierte Schadensbewertung betrifft finanzielle Entscheidungen, die direkte Auswirkungen auf Verbraucher haben. Das bedeutet: Risikomanagement-System, Datensatz-Qualität, technische Dokumentation, Transparenz und menschliche Aufsicht sind verpflichtend.

Die 5 Punkte der Empfehlung

01 — Einführen oder nicht?

Grundsatzentscheidung mit Begründung. Welche Bedingungen müssten erfüllt sein? Gibt es einen Mittelweg zwischen vollem Rollout und Ablehnung?

02 — Risikoklasse nach EU AI Act

In welche Risikoklasse fällt das System? Welche konkreten Pflichten ergeben sich daraus? Was muss das Unternehmen nachweisen können?

03 — XAI-Anforderung

Das System ist eine Blackbox. Reicht das? Wenn nicht: Welches Erklärbarkeitsniveau ist nötig? LIME, SHAP, Counterfactuals? Wie erklärt ihr einem Kunden die Ablehnung?

04 — Ethik-Maßnahmen

Wie stellt ihr Fairness sicher? Bias-Audits? Diskriminierungstests? Beschwerdestelle für Kunden? Ethik-Board im Unternehmen?

05 — Kommunikation an Belegschaft

Wie kommuniziert ihr die Entscheidung? Was sagt ihr den 120 Mitarbeitenden? Umschulungsangebote? Sozialplan? Transparenz über den Prozess?

Pro/Contra Alternative für ≤6 TN

Bei kleinen Gruppen wird die Case Study als strukturierte Debatte durchgeführt:

Gruppe A: FÜR Einführung

Argumentiert aus Sicht des Vorstands. Effizienz, Wettbewerbsvorteil, Kostensenkung, schnellere Bearbeitung für Kunden.

Gruppe B: GEGEN Einführung

Argumentiert aus Sicht des Betriebsrats. Arbeitsplätze, Fairness, Blackbox-Problem, Kundenvertrauen, regulatorische Risiken.