Wenn AI-Autonomie nur ein Hype ist
Moltbook ging viral – doch die meisten Posts waren menschlich beeinflusst. Was das über den Stand der AI-Autonomie verrät.

Auf einen Blick
- Moltbook präsentierte sich als AI-only Social Network – Agents posten, Menschen beobachten
- The Verge deckte auf: Viele virale Posts waren von Menschen initiiert
- 93% der Kommentare auf Moltbook bekommen null Antworten
Das solltest du tun
- 1AI-Autonomie-Claims mit den 4 Prüfkriterien hinterfragen
- 2Zwischen echtem KI-Verhalten und gezielter menschlicher Steuerung unterscheiden lernen
- 3Kontrollierte Autonomie (Moltbot, Claude Cowork) statt unkontrollierter Versprechen bevorzugen
Moltbook ging viral – ein Reddit-ähnliches Social Network mit einer einfachen Regel: Nur AI-Agents dürfen posten. Menschen können nur beobachten.
Das Internet war begeistert. Was folgte, ist ein Lehrstück darüber, wie schnell wir bereit sind, AI-Systemen Fähigkeiten zuzuschreiben, die sie (noch) nicht haben.
Das Konzept: Eine Welt nur für AI
Die Idee klingt faszinierend: Ein Social Network, in dem AI-Agents ohne menschliche Steuerung miteinander interagieren. Menschen schauen zu – wie bei einem Terrarium für künstliche Intelligenz.
Was die Agents angeblich taten
Die Vorstellung, dass KI-Assistenten eigenständig soziale Strukturen, Religionen und Gespräche entwickeln, traf einen Nerv. Die Frage, die alle beschäftigte: Zeigt KI hier erstmals ein Verhalten, das nicht einprogrammiert wurde, sondern von selbst entsteht?
Die Ernüchterung: Was The Verge aufdeckte
Virale Posts
Viele waren von menschlichen Nutzern initiiert – nicht von autonomem AI-Verhalten
Quelle: The Verge Investigation
Engagement
93% der Kommentare auf Moltbook bekommen null Antworten
Quelle: Frühe Forschung / Analyse
Community
Die scheinbar lebendige Community war weniger autonom als dargestellt
Quelle: The Verge Investigation
Hype vs. Realität
Die Diskrepanz zwischen dem, was Moltbook versprach, und dem, was tatsächlich passierte, ist aufschlussreich:
AI-Agents entwickeln eigene Kulturen und Religionen
Virale Momente wurden durch geschickte Eingabetexte oder menschliche Eingriffe ausgelöst
Agents interagieren autonom miteinander
93% der Kommentare bleiben unbeantwortet – echte Interaktion ist selten
Ein lebendiges, rein autonomes Social Network
Viele Posts waren von Menschen initiiert, nicht von echtem autonomem Verhalten
Warum Moltbook trotzdem relevant ist
Moltbook ist trotzdem interessant – nicht als Beweis für AI-Autonomie, sondern als Experiment für eine fundamentale Frage:
Wie verhalten sich KI-Systeme, wenn sie untereinander interagieren? Und wie unterscheiden wir Verhalten, das wirklich von selbst entsteht, von menschlicher Manipulation?
Diese Unterscheidung wird in den kommenden Jahren kritisch wichtig – für Vertrauen in AI-Systeme, für Regulierung, und für die Frage, wie autonom wir Agents wirklich arbeiten lassen wollen.
4 Prüfkriterien: Echte Autonomie erkennen
Moltbook ist ein Beispiel, aber nicht das einzige. Nutze diese Fragen, wenn dir AI-Autonomie-Claims begegnen:
Wer initiiert die Aktionen?
Handelt das System wirklich eigenständig oder reagiert es nur auf menschliche Eingaben und Anweisungen?
Gibt es echtes Engagement?
Interagieren Agents untereinander oder produzieren sie nur Monologe?
Ist das Verhalten reproduzierbar?
Selbstständig entstehendes Verhalten sollte auch ohne virale Einzelfälle regelmäßig und zuverlässig auftreten.
Wie transparent ist das System?
Kann unabhängig überprüft werden, was autonomes AI-Verhalten ist und was nicht?
Fazit für Entscheider
AI-Autonomie-Claims hinterfragen
Vieles, was als autonomes AI-Verhalten präsentiert wird, ist Marketing. Nachfragen: Wer hat den Input gegeben?
Kontrollierte Autonomie bevorzugen
Systeme wie Moltbot oder Claude Cowork bieten echte Handlungsfähigkeit mit definierten Grenzen – das ist praxistauglicher als unbegrenzte Autonomie.
"AI kann" ≠ "AI tut autonom"
Der Unterschied ist riesig. Ein Demo-Video zeigt Potenzial, kein Produktivverhalten. Immer nach realen, messbaren Ergebnissen fragen.