KI-ETHIK & TECHNOLOGIEFOLGEABSCHÄTZUNG

Die Blase-These

"AGI ist unmöglich. Es ist nur Hype."

→ HISTORISCHE MUSTER

  • AI Winter ab 1974: Perceptrons scheitern
  • AI Winter 1987: Expert Systems kollabieren
  • 2000er Dotcom: Milliardeninvestments, keine Revolution

→ FUNDAMENTALE GRENZEN

  • Moravec's Paradox: Einfaches ist schwer
  • Grounding Problem: Keine echte Welterfahrung
  • Common Sense: Fehlt komplett

→ ÖKONOMISCHE REALITÄT

  • $100 Mrd Investment: Wenig echte Produktivität
  • Energieverbrauch: Nicht skalierbar
  • ROI fehlt: ChatGPT macht keine Umsätze

→ TECHNISCHE LIMITS

  • Scaling Laws: Brechen bei Datenlimit
  • Halluzinationen: Ungelöstes Grundproblem
  • Transformer-Limit: Architektur ist ausgereizt

> DEEP_DIVE:

Warum AGI eine Blase ist: Die Geschichte wiederholt sich

> READING_TIME: 12 min

Wir waren schon dreimal hier. Und jedes Mal endete es im Crash.

1974: Der erste AI Winter

Die 1960er waren voller Optimismus. Dem KI-Gründervater Marvin Minsky wurde 1970 im LIFE Magazine das Zitat zugeschrieben: "In drei bis acht Jahren werden wir eine Maschine mit der allgemeinen Intelligenz eines durchschnittlichen Menschen haben." (Minsky bestritt das Zitat später.)

Was passierte? Perceptrons (frühe neuronale Netze) konnten nicht einmal eine einfache XOR-Funktion lernen. Die Fördergelder versiegten. Der erste AI Winter begann. Es dauerte 15 Jahre, bis wieder Hoffnung aufkam.

1987: Expert Systems kollabieren

In den 1980ern waren Expert Systems das neue große Ding. Unternehmen investierten Milliarden. Japan startete das "Fifth Generation Computer Project" mit dem Ziel, KI-Systeme zu bauen, die menschliche Experten ersetzen.

Das Ergebnis? Die Systeme waren zu starr. Jede neue Regel musste manuell programmiert werden. Wartung war unmöglich. Die Projekte scheiterten. Der zweite AI Winter kam.

2000er: Die Dotcom-Lektion

Nicht spezifisch KI, aber die gleiche Dynamik: Unbegrenzte Investments, riesige Versprechen, minimale Resultate. Pets.com, Webvan, Boo.com - Milliarden verbrannt.

Die Parallele zu heute? OpenAI, Anthropic, Stability AI - alle verlieren massiv Geld. ChatGPT kostet OpenAI mehr als es einbringt. Wann kommt der Crash?

Moravec's Paradox: Das fundamentale Problem

Hans Moravec beobachtete 1988: "Es ist einfach, Computer Schach spielen zu lassen, aber schwer, ihnen beizubringen, wie ein einjähriges Kind zu sehen und sich zu bewegen."

40 Jahre später ist das Problem ungelöst. ChatGPT kann philosophische Essays schreiben, aber nicht verstehen, warum man nicht durch eine geschlossene Tür gehen kann. Das ist kein Bug. Das ist fundamental.

→ DAS GROUNDING PROBLEM

KI hat keine Körper. Keine Sinne. Keine Erfahrung der Welt. Alles was sie "weiß" sind Muster in Text. Aber verstehen? Nein.

Ein Kind weiß nach einem Sturz, dass Treppen gefährlich sind. ChatGPT wird es nie wissen.

Die ökonomische Realität

Microsoft investiert über $13 Milliarden in OpenAI. Google, Meta, Amazon - hunderte Milliarden zusammen. Was ist das Return on Investment?

  • ChatGPT: Massive Nutzung, minimale Umsätze, gigantische Kosten
  • GitHub Copilot: $10/Monat, kostet Microsoft $20/Monat pro User
  • DALL-E: Cool, aber wer zahlt dafür langfristig?
  • Autonomous Driving: 10 Jahre Versprechen, noch immer Level 2

Das ist nicht nachhaltig. Irgendwann werden Investoren echte Profite sehen wollen. Und dann?

Scaling Laws brechen

Die große Hoffnung: "Einfach mehr Parameter, mehr Daten, mehr Compute - dann wird es AGI." Aber:

  • Das Internet ist endlich. Wir haben fast alle Textdaten trainiert.
  • Synthetische Daten führen zu "Model Collapse"
  • Energieverbrauch skaliert exponentiell mit
  • Nach GPT-5? Dann ist Schluss mit Skalierung.

Die unbequeme Wahrheit

Transformers sind beeindruckend. Aber sie sind nicht der Weg zu AGI. Sie sind pattern matching auf Steroiden. Brillant? Ja. Aber sie verstehen nichts.

Und wenn die nächste Architektur nicht bald kommt? Dann erleben wir AI Winter Nr. 4. Diesmal mit noch größeren Verlusten.

Die Blase wird platzen

Nicht weil die Technologie schlecht ist. Sondern weil die Erwartungen unrealistisch sind. AGI in 10 Jahren? Das haben wir schon 1970, 1985 und 2005 gehört.

Vielleicht sollten wir diesmal lernen.