KI-ETHIK & TECHNOLOGIEFOLGEABSCHÄTZUNG

EU AI Act: Wo liegt das Risiko?

"Die EU reguliert KI nach Risiko. 4 Klassen, klare Regeln."

→ UNAKZEPTABEL

VERBOTEN

  • • Social Scoring
  • • Biometrische Massenüberwachung

→ HOCHRISIKO

STRENGE AUFLAGEN

  • • Gesundheit
  • • Justiz
  • • Bildung
  • • Beschäftigung

→ BEGRENZTES RISIKO

TRANSPARENZPFLICHT

  • • Nutzer muss wissen, dass es KI ist

→ MINIMALES RISIKO

KEINE AUFLAGEN

  • • Spam-Filter
  • • Empfehlungen

INPUT

5 Min

ÜBUNG

12 Min

AUFLÖSUNG

8 Min

Eure Aufgabe: 10 KI-Systeme in die richtige Klasse einordnen.

> DEEP_DIVE:

EU AI Act: Die 4 Risikoklassen im Detail

> READING_TIME: 6 min

Die EU hat mit dem AI Act das weltweit erste umfassende KI-Gesetz verabschiedet – reguliert wird nach Risiko.

→ SO LÄUFT ES AB

Wir arbeiten in 2 Gruppen à ca. 5 Personen.
Zuerst lernt ihr die 4 Risikoklassen kennen (siehe unten). Dann bekommt ihr 10 KI-Systeme und ordnet sie gemeinsam in die richtige Klasse ein. Anschließend vergleicht ihr eure Ergebnisse – Abweichungen werden diskutiert.

1. Unakzeptables Risiko – VERBOTEN

KI-Systeme, die eine inakzeptable Bedrohung für die Grundrechte darstellen, sind vollständig verboten:

  • Social-Credit-Systeme: Staatliches Bewerten und Klassifizieren von Bürgern anhand ihres Sozialverhaltens.
  • Manipulative KI: Systeme, die menschliches Verhalten unterschwellig manipulieren, um Schaden zu verursachen.
  • Biometrische Echtzeit-Überwachung: Gesichtserkennung in Echtzeit in öffentlichen Räumen (mit eng begrenzten Ausnahmen für Strafverfolgung).

2. Hochrisiko – Strenge Auflagen

KI-Systeme in sensiblen Bereichen müssen strenge Anforderungen erfüllen:

  • Bewerbungsscreening: Automatisierte Vorauswahl von Kandidaten.
  • Kreditscoring: KI-basierte Bonitätsbewertung.
  • Medizinische Diagnose: KI-gestützte Befundung und Diagnose.
  • Autonomes Fahren: Sicherheitskritische Fahrentscheidungen.
  • Bildungsbewertung: Automatisierte Prüfungsbewertung und Zugangssteuerung.

Pflichten: Risikomanagement, Qualität der Datensätze, technische Dokumentation, Transparenz gegenüber Nutzern, menschliche Aufsicht.

3. Begrenztes Risiko – Transparenzpflicht

Nutzer müssen informiert werden, dass sie mit KI interagieren:

  • Chatbots: Nutzer muss wissen, dass eine KI antwortet.
  • Deepfakes: KI-generierte Bilder und Videos müssen als solche gekennzeichnet werden.
  • KI-generierte Inhalte: Texte, Bilder, Audio – Kennzeichnungspflicht.

4. Minimales Risiko – Keine Auflagen

Die große Mehrheit der KI-Systeme fällt in diese Kategorie:

  • Spam-Filter: Automatische E-Mail-Filterung.
  • Spielempfehlungen: Personalisierte Vorschläge auf Streaming-Plattformen.
  • Wettervorhersage: KI-basierte Prognosemodelle.

Keine besonderen regulatorischen Anforderungen. Freiwillige Verhaltenskodizes werden empfohlen.

10 KI-Systeme zum Einsortieren

Ordnet die folgenden Systeme in die richtige Risikoklasse ein:

  1. ChatGPT als Kundenservice-Bot
  2. KI-gestütztes Bewerbungsscreening
  3. Autonomes Fahren (Level 4)
  4. KI-Diagnose in der Radiologie
  5. Deepfake-Generator
  6. Spotify-Empfehlungsalgorithmus
  7. Predictive Policing (Achtung: je nach Typ verboten oder Hochrisiko)
  8. KI-basiertes Kreditscoring
  9. Social-Media-Content-Moderation
  10. Gesichtserkennung an Flughäfen

Split & Swap Alternative für ≤6 TN

Bei kleinen Gruppen (≤6 Teilnehmende): Jede Person sortiert 5 Systeme individuell ein, dann werden die Ergebnisse getauscht und verglichen. So entsteht doppelte Abdeckung und eine natürliche Diskussionsgrundlage bei abweichenden Einordnungen.