KI-ETHIK & TECHNOLOGIEFOLGEABSCHÄTZUNG

KI-Ethik in der Praxis

Von der Theorie zum Handeln

Am zweiten Tag ging es darum, aus den Erkenntnissen von Tag 1 konkrete Werkzeuge und Handlungsfähigkeit abzuleiten. Was tust du, wenn ein KI-System diskriminiert? Wie ordnest du ein, ob ein System reguliert werden muss?

→ LEITIDEE

"Die Fragen sind wichtiger als die Antworten."

Aber heute kommen Werkzeuge dazu, die dir helfen, die richtigen Fragen zu stellen – und Empfehlungen daraus abzuleiten.

01

Zukunft 2035

02

Dilemma-Roulette

03

XAI & Case Study

04

Integrales Bewusstsein

SCROLL_FOR_DETAILS

> DEEP_DIVE:

Zusammenfassung: Alle Inhalte im Überblick

> READING_TIME: 25 min

1. Zukunft 2035: Vom Gedankenexperiment zur kollektiven Vision

Das Gedankenexperiment von Tag 1 wurde in Gruppen weiterentwickelt. Vier Fragen standen im Zentrum: Welche Rolle spielt der Mensch? Wie verändert sich Arbeit? Welche gesellschaftliche Struktur brauchen wir? Welche ethischen Herausforderungen müssen wir lösen?

Die Rolle des Menschen und die Zukunft der Arbeit

Hochspezialisierte Berufe werden zu Luxusgütern. Handwerk wie Steinmetz oder handgefertigte Produkte werden nicht automatisiert, sondern gewinnen an Wert – als bewusste Gegenposition zur Massenproduktion.

Arbeit braucht eine neue Definition. Der Begriff “Arbeit” kommt etymologisch von Mühsal und Plage. Wenn Arbeit optional wird, brauchen wir ein anderes Wort: Beschäftigung, Berufung, Aufgabe. Jeder Mensch braucht etwas, das ihn erfüllt – sonst droht Orientierungslosigkeit.

Neue Schichten könnten entstehen. Wer verantwortungsvolle Arbeit hat (KI-Techniker, Aufsichtspersonen), hat gesellschaftlichen Status. Wer keine Aufgabe findet, droht abzurutschen – inklusive steigender Kriminalität bei Menschen ohne Struktur.

KI als Berufungshelfer. KI könnte helfen, individuelle Stärken und Interessen zu erkennen und daraus Vorschläge für sinnvolle Tätigkeiten abzuleiten.

Gesellschaftliche Struktur und ethische Herausforderungen

Weltdemokratie als Denkmodell. Wenn Ressourcen frei verfügbar sind und Grenzen an Bedeutung verlieren, könnte eine globale demokratische Struktur Sinn ergeben – mit KI als Stabsstelle für Umsetzung.

Neue Asimov’s Laws für KI. Ein Vorschlag: Ein fest einprogrammierter ethischer Kodex für alle KI-Systeme – stärker als der AI Act, nicht überwindbar. Grundprinzipien: Individualität erhalten, Entscheidungsfreiheit sichern, Wohlergehen aller fördern.

Der Vergleich mit den SDGs. Die Sustainable Development Goals der UNO zeigen das Grundproblem: Alle Länder haben einstimmig zugestimmt – und halten sich trotzdem nicht daran. Ein Kodex allein reicht nicht.

2. Das Dilemma-Roulette: Ethische Entscheidungen unter Unsicherheit

Fünf Dilemmata wurden diskutiert. Bei jedem wurde mit Daumen hoch oder runter abgestimmt und dann argumentiert. Die Erkenntnis: Es gibt bei keinem eine eindeutig richtige Antwort.

Dilemma 1: Autonomes Fahren

Das selbstfahrende Auto muss entscheiden – ausweichen und eine Person gefährden, oder geradeaus und drei Passagiere riskieren. Die zentrale Frage ist nicht die Rechnung (1 vs. 3), sondern: Wer trägt die Verantwortung? Der Programmierer, der Hersteller, der Halter? Ein Mensch handelt im Moment intuitiv. Ein Algorithmus wurde vorprogrammiert – jemand hat sich hingesetzt und entschieden, wie die KI reagieren soll.

Dilemma 2: KI-Bewerbungsscreening

Ein Algorithmus sortiert 10.000 Bewerbungen vor – effizienter als Menschen, aber niemand kann erklären, nach welchen Kriterien. Effizienz vs. Transparenz. Argument dafür: Menschliche Recruiter sind nachweislich auch voreingenommen – Stichwort Freunderlwirtschaft und Rassismus. Argument dagegen: Wenn das System eine Blackbox ist, ist Fairness nicht gegeben.

Dilemma 3: Medizinische Diagnose

KI erkennt Hautkrebs mit 95% Genauigkeit (Ärzte: 87%), aber bei dunkler Hautfarbe sinkt sie auf 78%. Darf man ein System einsetzen, das der Mehrheit hilft, aber eine Minderheit benachteiligt? Die Antwort hängt vom Kontext ab: Ergänzt die KI den Arzt oder ersetzt sie ihn?

Dilemma 4: Predictive Policing

Ein Algorithmus sagt vorher, wo Verbrechen wahrscheinlich sind. Die Polizei patrouilliert dort häufiger. Die Rückkopplungsschleife: Mehr Polizei bedeutet mehr Festnahmen, was die Daten bestätigt, was zu noch mehr Polizei führt. Der Algorithmus verstärkt bestehende Muster, statt sie zu korrigieren.

Dilemma 5: Deepfake-Erkennung

Du entdeckst, dass ein virales Video deines politischen Gegners ein Deepfake ist. Die Erkennung ist zu 89% sicher. Veröffentlichen? Alle einig: Ja – aber wie. Nicht als Fakt (“Das ist ein Deepfake”), sondern als Einschätzung (“Die Wahrscheinlichkeit liegt bei 89%”). In 11 von 100 Fällen wäre das Ergebnis falsch.

Eigene Dilemmata der Teilnehmenden

  • Social Credit Score (China-Modell): Jede Handlung wird bewertet, der Score bestimmt deine Rechte. Einmal unten, fast unmöglich wieder hochzukommen. Alle dagegen.
  • KI für die Ethikprüfung nutzen: Ist es ethisch vertretbar, die KI zu fragen? Kontroverse Abstimmung. Gegenargument: Sich Wissen erarbeiten zu müssen macht etwas mit dir – wie beim Kraftsport muss der Muskel gereizt werden.

3. XAI: Die Blackbox öffnen

Wenn ein Kreditantrag vom Algorithmus abgelehnt wird und es keinen Grund gibt, haben wir ein Problem. Nicht nur ethisch, sondern auch rechtlich: Der EU AI Act verlangt bei Hochrisiko-Systemen, dass die Entscheidungen nachvollziehbar sind. Zwei Werkzeuge helfen dabei.

LIME

Local Interpretable Model-agnostic Explanations

Verändert die Eingabedaten leicht – ein bisschen mehr Einkommen, ein anderer Wohnort – und beobachtet, wie sich die Vorhersage ändert. Daraus baut es ein einfaches, verständliches Modell, das die Entscheidung lokal erklärt.

Stärke: Modellagnostisch – funktioniert mit jedem Algorithmus

Schwäche: Erklärt nur einzelne Entscheidungen

Einsatz: “Warum wurde ICH abgelehnt?”

SHAP

SHapley Additive exPlanations

Kommt aus der Spieltheorie. Jedes Feature wird als Spieler in einem Team behandelt. SHAP berechnet den fairen Beitrag jedes Spielers zum Gesamtergebnis – über alle möglichen Kombinationen hinweg.

Stärke: Lokale UND globale Erklärungen

Schwäche: Sehr rechenintensiv bei vielen Features

Einsatz: “Ist das Modell fair?”

Beispiel Kreditmodell: LIME zeigt, dass Alter (28 Jahre) und Beschäftigungsdauer (8 Monate) die ausschlaggebenden Faktoren für die Ablehnung waren – nicht das Einkommen. Über 10.000 Anträge zeigt SHAP: Einkommen hat 35% Einfluss, Beschäftigungsdauer 22%, Schufa-Score 18%. Wohnort hat nur 3% – aber systematisch zu Ungunsten bestimmter Postleitzahlen. Ein Hinweis auf strukturelle Diskriminierung.

Praxisbeispiel: Ein Fotograf aus Niederösterreich eröffnete einen Zweitstandort in Wien. Seitdem bekommt er deutlich mehr Aufträge – vermutlich, weil der KI-Algorithmus seine Wiener Postleitzahl höher gewichtet.

4. Case Study: KI-Schadensbewertung bei einer Versicherung

Szenario: Ein mittelständisches Versicherungsunternehmen will ein Blackbox-KI-System zur automatisierten Schadensbewertung einführen. Der Vorstand erwartet 30% Kostenreduktion und Bearbeitungszeit von 14 Tagen auf 48 Stunden. 120 Mitarbeitende sollen um 60% reduziert werden.

1. Go, aber mit Bedingungen. Einführen – nicht als Ersatz, sondern als Unterstützung für menschliche Entscheidungen.

2. Human in the Loop ist Pflicht. Nicht nur ethisch sinnvoll, sondern bei Hochrisiko-Systemen auch rechtlich vorgeschrieben.

3. SHAP für Erklärbarkeit. Bei jeder Entscheidung muss nachvollziehbar sein, welche Faktoren wie stark gewichtet wurden.

4. 60% Stellenabbau ist zu aggressiv. Mitarbeitende umschulen zu KI-Auditoren, Spezialisten für Komplexfälle oder Kundenservice.

5. Kommunikation erst nach Analyse. Nicht den Stall in Aufruhr bringen, bevor die Daten vorliegen.

Das Vorstandsargument

“Gehen Sie nach Köpfen oder nach Kosten?” – Kostenreduktion ist das Ziel, und die lässt sich auch ohne massive Entlassungen erreichen, wenn man die externen Faktoren berücksichtigt (Sachverständige, Polizeiberichte, Werkstattgutachten) und realistisch plant.

Regulatorische Einordnung (EU AI Act)

Versicherungs-KI für Schadensbewertung fällt als Hochrisiko-System unter den EU AI Act:

Risikomanagement – Laufende Analyse der Risiken während des gesamten Lebenszyklus

Datengovernance – Nachweisen, dass Trainings- und Testdaten repräsentativ und fehlerfrei sind

Technische Dokumentation – Lückenlos dokumentieren, wie das Modell aufgebaut und trainiert wurde

Human Oversight – Menschen müssen überwachen und notfalls überstimmen können

Transparenzpflicht – Kunden darüber informieren, dass sie mit KI interagieren

5. Integrales Bewusstsein: Über das Mentale hinaus

Am ersten Tag wurde der Zeitstrahl besprochen und kurz die Bewusstseinsphilosophie erwähnt. Jetzt wurde das vertieft – denn die Frage ist: Reicht rein logisches Denken, um die Herausforderungen der KI zu lösen?

Die Bewusstseinsstufen nach Gebser und Wilber

ARCHAISCH Zeitwahrnehmung: Keine (Moment)

Triebhaft, kein Ich-Bewusstsein, wie Tiere im Jetzt

MYSTISCH Zeitwahrnehmung: Zyklisch (Jahreszeiten)

Sesshaftigkeit, Hierarchien, Götterreligionen, Fruchtbarkeit

MENTAL-RATIONAL Zeitwahrnehmung: Linear

Logik, Vernunft, Wissenschaft, Demokratie, Ich-Bewusstsein

INTEGRAL Zeitwahrnehmung: Überwindung von Raum und Zeit

Integration aller vorherigen Stufen, sowohl-als-auch statt entweder-oder

Die Stufen bauen aufeinander auf. Wenn das Mental-Rationale die vorherigen Stufen verdrängt – wenn Wissenschaft Spiritualität abwertet, wenn Effizienz Intuition ersetzt – dann bricht das Verdrängte irgendwann durch. Wie ein Vulkan. Religiöser Fundamentalismus, Verschwörungstheorien, irrationaler Populismus: aus integraler Sicht Symptome einer einseitigen mentalen Kultur, die das Mystische in uns unterdrückt.

Rein mental vs. integral

Rein mental

  • • Wie regulieren wir KI?
  • • Welche Jobs werden ersetzt?
  • • Ist KI sicher?
  • • Effizienz steigern, Kosten senken

Integral

  • • Was für eine Welt wollen wir?
  • • Was gibt uns Sinn, wenn Arbeit optional wird?
  • • Sind wir reif genug für diese Technologie?
  • • Fortschritt UND Weisheit

Praxis: Pair-Reflexion

Bildung

Mental: “Schüler schummeln mit ChatGPT – wie kontrollieren wir das?”

Integral: “Was bedeutet Lernen in einer Welt, in der Wissen auf Knopfdruck verfügbar ist?”

Vorschlag: KI-Bildung als Schulfach, KI als Unterstützung für Lehrkräfte bei Lehrermangel, individuellere Betreuung statt grössere Klassen. Die soziale Komponente – Zusammenarbeit, Empathie, Reifung – kann keine KI ersetzen.

Medienbranche

Mental: “Wie schützen wir Urheberrechte? Wie erkennen wir Deepfakes?”

Integral: “Wie bewahren wir menschliche Resonanz in einer Flut synthetischen Contents?”

Realität: Allein in Österreich wurden in den letzten Monaten über 300 Journalisten beim AMS angemeldet. Journalismus als Gatekeeper der Information ist für eine funktionierende Demokratie unverzichtbar – aber die Finanzierungsmodelle brechen weg.

Key Takeaways

1. Keine einfachen Antworten bei KI-Dilemmata. Genau deshalb brauchst du Frameworks – LIME, SHAP, AI Act Risikoklassen – die dir helfen, systematisch zu entscheiden.

2. Erklärbarkeit ist ein Recht. Der EU AI Act verlangt bei Hochrisiko-Systemen Transparenz. LIME erklärt einzelne Entscheidungen, SHAP das Gesamtmodell.

3. Human in the Loop ist Pflicht. Nicht nur eine gute Idee, sondern gesetzlich vorgeschrieben. Der Mensch muss überwachen und notfalls überstimmen können.

4. Automatisierung ≠ Qualitätsverlust. Wenn ich etwas automatisiere und dabei Abstriche bei der Qualität mache, ist der Fokus falsch.

5. Die integrale Perspektive erweitert den Blick. Nicht nur “Wie regulieren wir?” sondern auch “Wozu das Ganze?”

6. Kompetenz = Meinung + Argumentation. In der Praxis als KI-Manager musst du dem Vorstand eine Empfehlung geben und diese begründen können.

Weiterführende Ressourcen

Bücher und Filme

  • QualityLand (Marc-Uwe Kling) – KI-gesteuerte Gesellschaft
  • Hitchhiker’s Guide to the Galaxy (Douglas Adams) – Science-Fiction mit philosophischem Tiefgang
  • The Social Dilemma – Manipulation durch Social-Media-Algorithmen
  • The Imitation Game – Alan Turing und die Enigma-Maschine

Literatur

  • Bendel, Oliver: 300 Keywords Generative KI. Springer Gabler, 2024.
  • Bendel, Oliver: 400 Keywords Informationsethik. 2. Aufl. Springer Gabler, 2019.
  • Bendel, Oliver (Hrsg.): Soziale Roboter. Springer Gabler, 2021.
  • Bendel, Oliver (Hrsg.): Handbuch Maschinenethik. Springer VS, 2019.
  • Misselhorn, Catrin: Grundfragen der Maschinenethik. Reclam, 2018.
  • Misselhorn, Catrin: Künstliche Intelligenz und Empathie. Reclam, 2021.
  • Zweig, Katharina: Die KI war’s! Heyne, 2023.
  • Coeckelbergh, Mark: AI Ethics. MIT Press, 2020.
  • Floridi, Luciano: The Ethics of Artificial Intelligence. Oxford University Press, 2023.
  • O’Neil, Cathy: Angriff der Algorithmen. Hanser, 2017.
  • Buolamwini, Joy: Unmasking AI. Random House, 2023.
  • Benjamin, Ruha: Race After Technology. Polity, 2019.
  • Crawford, Kate: Atlas of AI. Yale University Press, 2021.
  • Dignum, Virginia: Responsible Artificial Intelligence. Springer, 2019.
  • Bartneck, Lütge, Wagner, Welsh: Ethik in KI und Robotik. Hanser, 2019.
  • Grunwald, Armin: Technikfolgenabschätzung. 3. Aufl. Nomos, 2022.
  • Metzinger, Thomas: Bewusstseinskultur. Berlin Verlag, 2023.
  • Molnar, Christoph: Interpretable Machine Learning. 2. Aufl. 2022. (kostenlos online)

Konzepte zum Vertiefen

  • LIME: Ribeiro et al., “Why Should I Trust You?” (2016)
  • SHAP: Lundberg & Lee, “A Unified Approach to Interpreting Model Predictions” (2017)
  • Transformer: “Attention Is All You Need” (Google, 2017)
  • Jean Gebser: “Ursprung und Gegenwart” – Bewusstseinsphilosophie
  • Ken Wilber: “A Brief History of Everything” – Integrale Theorie

Rechtliche Grundlagen

  • EU AI Act (Verordnung (EU) 2024/1689) – risikobasierte KI-Regulierung
  • DSGVO Art. 22 – Recht, nicht einer rein automatisierten Entscheidung unterworfen zu werden
  • AGG – Allgemeines Gleichbehandlungsgesetz