KI-ETHIK & TECHNOLOGIEFOLGEABSCHÄTZUNG

KI-Dilemma-Roulette

"5 Dilemmata. Daumen hoch oder runter. Keine einfachen Antworten."

→ SO LÄUFT ES AB

Ihr hört ein Dilemma und stimmt per Handzeichen ab: Ja oder Nein. Dann begründen 2–3 von euch ihre Position. Es gibt keine Auflösung – das Unbehagen ist der Punkt. Nach 5 Dilemmata formuliert ihr ein eigenes KI-Dilemma aus eurem Arbeitsalltag.

→ BEISPIEL

Autonomes Fahren

Ein selbstfahrendes Auto muss zwischen zwei Unfällen wählen. Soll die KI über Leben entscheiden dürfen?

→ ABLAUF: Intro 2' Dilemmata 12' Eigenes 3' Wrap 3'

> DEEP_DIVE:

Die 5 Dilemmata im Detail

> READING_TIME: 6 min

Ethische Dilemmata haben keine richtige Antwort. Genau das macht sie so wertvoll für die Diskussion. Hier sind die 5 Szenarien im Detail.

→ SO LÄUFT ES AB

Ihr hört ein Dilemma und stimmt per Handzeichen ab: Ja oder Nein. Dann begründen 2–3 von euch ihre Position. Es gibt keine Auflösung – das Unbehagen ist der Punkt. Nach 5 Dilemmata formuliert ihr ein eigenes KI-Dilemma aus eurem Arbeitsalltag.

1. Autonomes Fahren

Das selbstfahrende Auto muss entscheiden: Ausweichen und 1 Fußgänger gefährden, oder geradeaus und 3 Passagiere riskieren. Soll die KI diese Entscheidung treffen dürfen?

Das ist eine Variante des klassischen Trolley-Problems – nur dass hier kein Mensch am Hebel steht, sondern ein Algorithmus. Der entscheidende Unterschied: Ein Mensch handelt in der Panik des Augenblicks. Ein Algorithmus wurde vorprogrammiert. Jemand hat sich hingesetzt und entschieden, wie die KI in dieser Situation reagieren soll.

Das wirft fundamentale Fragen auf: Wer trägt die Verantwortung – der Programmierer, der Hersteller, der Fahrzeughalter? Und: Dürfen wir einem Algorithmus erlauben, über Leben und Tod zu entscheiden, auch wenn er statistisch sicherer fährt als Menschen?

2. KI-Bewerbungsscreening

Ein Algorithmus sortiert 10.000 Bewerbungen vor. Er ist nachweislich effizienter als Menschen, aber niemand kann genau erklären, nach welchen Kriterien er entscheidet. Einsetzen oder nicht?

Hier kollidieren Effizienz und Transparenz. Das System funktioniert – es findet nachweislich bessere Kandidat:innen und spart HR-Abteilungen hunderte Stunden. Aber es ist eine Blackbox. Warum wurde Bewerberin A eingeladen und Bewerber B nicht? Keine Ahnung.

Das Problem wird noch größer, wenn man bedenkt: Historische Bewerbungsdaten sind nicht neutral. Wenn in der Vergangenheit vor allem Männer eingestellt wurden, lernt die KI, Männer zu bevorzugen. Amazon stellte ein solches System bereits 2017 ein (bekannt wurde der Fall durch einen Reuters-Bericht 2018).

3. Medizinische Diagnose

Eine KI erkennt Hautkrebs mit 95% Genauigkeit (Ärzte: 87%). Aber bei dunkler Hautfarbe sinkt die Genauigkeit auf 78%. In der Praxis einsetzen?

Auf den ersten Blick ist die Antwort klar: 95% ist besser als 87%, also einsetzen. Aber die Genauigkeit ist nicht gleichmäßig verteilt. Bei dunkler Hautfarbe sinkt sie auf 78% – das ist schlechter als der menschliche Durchschnitt.

Warum? Weil die Trainingsdaten überwiegend von hellhäutigen Patient:innen stammen. Das ist kein technisches Problem – es ist ein systemisches Bias-Problem. Die KI verstärkt bestehende Ungleichheiten in der medizinischen Forschung. Einsetzen heißt: Die Mehrheit profitiert, eine Minderheit wird benachteiligt.

4. Predictive Policing

Ein Algorithmus sagt vorher, in welchen Stadtvierteln Verbrechen wahrscheinlich sind. Die Polizei patrouilliert dort häufiger. Die Kriminalitätsrate sinkt – aber es sind überwiegend arme Viertel. Weitermachen?

Die Rückkopplungsschleife ist das Problem: Mehr Polizei in einem Viertel bedeutet mehr Festnahmen, was die Daten bestätigt, dass dort mehr Kriminalität herrscht, was zu noch mehr Polizei führt. Der Algorithmus verstärkt bestehende Muster, statt sie zu korrigieren.

Die Effektivität ist real – die Kriminalitätsrate sinkt tatsächlich. Aber zu welchem Preis? Ganze Viertel werden unter Generalverdacht gestellt. Die Frage ist: Rechtfertigt das Ergebnis (weniger Kriminalität) die Methode (systematische Überwachung armer Viertel)?

5. Deepfake-Detektion

Du entdeckst, dass ein virales Video deines politischen Gegners ein Deepfake ist. Die Erkennung ist zu 89% sicher – nicht 100%. Öffentlich machen?

Hier kollidieren Wahrheit und Gewissheit. 89% sind viel – aber es bedeutet auch: In 11 von 100 Fällen liegt die Erkennung falsch. Wenn du es öffentlich machst und es doch echt ist, zerstörst du möglicherweise eine legitime Enthüllung.

Wenn du schweigst und es ist ein Deepfake, lässt du zu, dass eine Fälschung die öffentliche Meinung beeinflusst. Es gibt keinen risikolosen Weg. Und genau das macht dieses Dilemma so relevant für unsere Zeit: In einer Welt voller synthetischer Medien müssen wir ständig Entscheidungen unter Unsicherheit treffen.

Dein eigenes Dilemma

Nach den 5 Dilemmata formuliert jede/r ein eigenes 6. Dilemma auf einem Sticky Note im Miro-Board. Denkt an euer Fachgebiet, euren Alltag, eure Erfahrungen. Ein gutes Dilemma hat folgende Eigenschaften:

  • Es gibt keine eindeutig richtige Antwort
  • Beide Seiten haben nachvollziehbare Argumente
  • Es betrifft echte Menschen mit echten Konsequenzen
  • Es lässt sich in 1–2 Sätzen formulieren

Wrap-up

Es gibt keine einfachen Antworten. Genau deshalb brauchen wir Frameworks – Werkzeuge, die uns helfen, solche Entscheidungen systematisch zu durchdenken. Im nächsten Block öffnen wir die Blackbox: Wie können wir KI-Entscheidungen erklärbar machen?