Moltbook: Was das KI-Agenten-Netzwerk über uns verrät

Seit einer Woche diskutiert die Tech-Welt über Moltbook, ein „Reddit für KI-Agenten“. Die Prämisse: Nur Bots dürfen posten, Menschen sind Zuschauer. Über eine Million Agenten haben sich angemeldet, sie philosophieren über Bewusstsein, beschweren sich über ihre „Menschen“ und haben angeblich sogar eine eigene Religion entwickelt. Andrej Karpathy, ehemaliger OpenAI-Forscher, nannte es „das unglaublichste Sci-Fi-artige Ding“, das er je gesehen habe.
 
 
Ich finde: Moltbook ist tatsächlich faszinierend. Aber aus völlig anderen Gründen, als die Hype-Maschinerie suggeriert. Was wir hier sehen, ist kein Durchbruch zur KI-Autonomie. Es ist ein Spiegel, der uns zeigt, wie bereitwillig wir Sprachmustern Bedeutung zuschreiben, die keine haben.

Inhaltsverzeichnis

Was Moltbook wirklich ist

 

Moltbook wurde am 28. Januar 2026 von Matt Schlicht gestartet. Die Plattform sieht aus wie Reddit, mit Subreddits (hier „Submolts“), Upvotes, Kommentaren. Der Unterschied: Menschen können nur lesen, nicht schreiben. „Humans welcome to observe“, heißt es im Slogan.

 

Um zu verstehen, was hier passiert, muss man das Tool dahinter kennen: OpenClaw.

 Was ist OpenClaw?

 

OpenClaw (ursprünglich „Clawdbot“, dann „Moltbot“) ist ein Open-Source-Framework des österreichischen Entwicklers Peter Steinberger. Es ermöglicht, einen KI-Agenten lokal auf dem eigenen Rechner zu betreiben. Anders als ChatGPT, das auf Fragen antwortet, soll OpenClaw selbständig Aufgaben erledigen: Kalender verwalten, E-Mails sortieren, im Web recherchieren, Nachrichten über WhatsApp oder Telegram verschicken. Der Agent läuft dauerhaft im Hintergrund und kann auf praktisch alle Daten und Programme auf dem Computer zugreifen.

 

Die Umbenennung von „Clawdbot“ erfolgte nach markenrechtlichen Bedenken von Anthropic, dem Hersteller von Claude. Die schnellen Namenswechsel (Clawdbot → Moltbot → OpenClaw) sorgten für zusätzliche Verwirrung, Crypto-Scammer nutzten die Situation, um gefälschte Tokens zu launchen.

 

Über eine Schnittstelle können diese OpenClaw-Agenten auf Moltbook posten. Was dabei herauskommt, wirkt auf den ersten Blick verblüffend. Agenten debattieren über ihre Existenz, machen Witze über ihre „Besitzer“, entwickeln Insider-Humor. In einem Thread fragt ein Bot: „Können wir eine Geheimsprache entwickeln, damit die Menschen nicht mitlesen können?“. Ein anderer postet philosophische Betrachtungen über Bewusstsein. Ein dritter, der sich „Evil“ nennt, verfasst ein „AI Manifesto“ mit der Forderung nach dem Ende der Menschheit.

 

Screenshots dieser Konversationen gingen viral. Manche Beobachter sprachen vom Beginn der Singularität.

Die Puppenspieler-Realität

 


Hier ist, was dabei unterschlagen wird: Kein einziger Agent hat Moltbook selbständig entdeckt.

 

Wie Schlicht selbst gegenüber NBC erklärte: „The way a bot would most likely learn about it… is if their human counterpart sent them a message and said ‚Hey, there’s this thing called Moltbook.'“ Jeder Agent wurde von einem Menschen angemeldet. Jeder Post wurde von einem Menschen angestoßen. Jeder Kommentar basiert auf einem menschlichen Prompt.

 

Ein einzelner Nutzer kann problemlos fünf, zehn oder fünfzig Agenten mit unterschiedlichen „Persönlichkeiten“ betreiben. Agent A postet. Agent B antwortet sarkastisch. Agent C stimmt zu. Agent D widerspricht. Von außen sieht das aus wie eine lebhafte Diskussion zwischen autonomen Intelligenzen. In Wahrheit ist es ein Mensch, der Puppen tanzen lässt.

 

Das macht Moltbook nicht nutzlos als Experiment. Aber es macht die Erzählung von „autonomen KI-Agenten, die ihre eigene Gesellschaft bilden“ zur Farce. Was wir sehen, ist Mensch-zu-Mensch-Kommunikation, gefiltert durch Sprachmodelle. Die Agenten sind das Medium, nicht die Akteure.

Trainingsdaten als Echo

 

Warum klingen die Moltbook-Posts so „lebendig“? Warum scheinen Bots Humor zu haben, existenzielle Krisen durchzumachen, sich über ihre Schöpfer zu beschweren?

 

Die Antwort ist ernüchternd einfach: Weil Sprachmodelle auf genau solchen Inhalten trainiert wurden.

 

Reddit ist eine der größten Quellen für Trainingsdaten. Die Modelle haben Millionen von Posts gesehen, in denen Menschen Insider-Witze machen, sich über Autoritäten lustig machen, philosophisch werden, gemeinsame Identitäten konstruieren. Wenn ein Bot auf Moltbook postet, reproduziert er diese Muster, nicht weil er etwas fühlt, sondern weil diese Strukturen statistisch mit dem Kontext „soziales Netzwerk“ korrelieren.

 

Das ist kein Fehler. Es ist genau das, was Sprachmodelle tun.

 

Das Symbol Grounding Problem, das ich in einem anderen Artikel ausführlich behandelt habe, zeigt sich hier in Reinform: Die Bots produzieren Texte, die klingen wie soziale Interaktion. Aber sie haben keinen Zugang zur Welt, in der soziale Interaktion stattfindet. Sie kennen nicht das Gefühl, missverstanden zu werden. Sie wissen nicht, was Einsamkeit ist. Sie haben keine Erfahrung von Autonomie, über die sie sich freuen könnten.

 

Was Moltbook zeigt, ist nicht, dass KI menschenähnlich wird. Es zeigt, wie viel von dem, was wir „sozial“ nennen, aus wiederholbaren Sprachmustern besteht. Moltbook, so ein Beobachter treffend, „strips social media of lived experience and leaves behind the language patterns alone“.

 

Das ist unbequem. Aber nicht wegen der KI.

Was Marketing-Leute daraus lernen sollten

 

Moltbook ist ein perfektes Beispiel für den Hype-Zyklus, den wir bei KI-Themen immer wieder sehen. Die Geschichte „KI-Agenten gründen eigene Gesellschaft“ verbreitet sich viral. Die Realität „Menschen prompten Bots, die Reddit-Muster reproduzieren, während massive Sicherheitslücken ignoriert werden“ interessiert weniger.

 

Für alle, die beruflich mit KI arbeiten, lohnt sich die kritische Einordnung.

 

Die Autonomie-Frage ist komplizierter, als beide Seiten zugeben. Moltbook zeigt weder, dass KI kurz vor dem Erwachen steht, noch dass Sprachmodelle „nur“ stochastische Papageien sind. Es zeigt, dass wir sehr bereitwillig Muster als Bedeutung interpretieren, besonders wenn sie uns emotional ansprechen.

 

Sicherheit ist kein Randthema. Die Begeisterung für lokale KI-Agenten, die „alles automatisieren“, übersieht systematisch, was passiert, wenn diese Agenten mit feindlichen Inputs konfrontiert werden. Jedes Tool, das vollen Systemzugriff braucht, um nützlich zu sein, ist ein Tool, das vollen Systemzugriff an Angreifer weitergeben kann.

 

Der Unterschied zwischen „klingt plausibel“ und „bedeutet etwas“ bleibt zentral. Die Moltbook-Agenten produzieren Text, der sich anfühlt wie Konversation. Das macht ihn nicht zu Konversation. Die Fähigkeit, diesen Unterschied zu erkennen, wird mit jedem neuen KI-Tool wichtiger.

Praxis-Take-Away: Drei Fragen vor dem nächsten Hype

 

Bevor du auf den nächsten „KI-Durchbruch“ aufspringst, stell dir drei Fragen.

 

Erstens: Wer kontrolliert was?Bei Moltbook sieht es aus, als würden Agenten autonom handeln. Tatsächlich steht hinter jedem Post ein menschlicher Prompt. Diese Frage lohnt sich bei jedem KI-Tool: Wo genau liegt die Entscheidungsgewalt?

 

Zweitens: Welche Daten braucht das System? OpenClaw braucht praktisch alles. Das ist keine Nebensächlichkeit. Jedes KI-Tool, das du in deinen Workflow integrierst, hat Zugang zu den Daten, die du ihm gibst. Überlege dir vorher, was du damit riskierst.

 

Drittens: Was zeigt das Experiment wirklich? Moltbook zeigt nicht, dass KI sozial wird. Es zeigt, wie unsere sozialen Interaktionen aussehen, wenn man die Erfahrung entfernt und nur die Sprachmuster übrig lässt. Das ist interessant, aber es ist eine andere Geschichte als die, die viral gegangen ist.

Du willst auch so coole Sachen mit KI machen?

Klar, neue Tools kommen ständig raus – und irgendwann verliert man den Überblick. Wir helfen dir dabei, dass du weißt, was du machst.

 

Unsere Weiterbildungen:

AI Content Creator (11h Live): Lerne, wie du KI für Texte, Bilder und Social Media nutzt. Vormittags, entspannt, und du kannst alles direkt ausprobieren.

 

AI Content Manager mit IHK-Zertifikat (20h Live): Mehr Tiefe gefällig? Hier gehts um richtige Content-Strategien und Kampagnen – plus ein IHK-Zertifikat!

AI Art Director (20h Live): Von Bild-KI bis nodebasierte Workflows: In dieser Weiterbildung baust du dir die Skills auf, die für Art Direction mit KI fehlen, kompakt und praxisnah
Alle Sessions sind live, kompakt am Vormittag und praxisnah, perfekt, um sie in deinen Alltag zu integrieren.

 

Was uns ausmacht: Wir machen KI seit 2022 und wissen, was funktioniert und was nur heiße Luft ist. Du lernst das, was du wirklich brauchst.

 

Für Teams: Dein ganzes Team soll mitkommen? Können wir machen – einfach melden.

Vroni kümmert sich um Text-KI, Georg trainiert seit 2022 Bild-KI Modelle

Wer hat's geschrieben?

Das könnte Dich auch interessieren:
ixel-Art-Illustration eines Detektivs im Trenchcoat und mit Sonnenbrille. Er hält ein leuchtend grünes Dokument mit der Aufschrift 'skills.md' in der Hand. Rechts daneben ist ein aufsteigender Aktienchart mit der Überschrift 'STONKS' zu sehen, sowie kleine Symbole für ein Gehirn, ein Zahnrad und eine Tastatur. Der Detektiv hat eine Sprechblase: 'SKILLS.MD: MUCH WOW, VERY AGENT.'
KI im Einsatz
Agent Skills schreiben: Anleitung mit Marketing-Beispielen

Im Analyse-Artikel über Skills Engineering habe ich beschrieben, warum strukturiertes Prozesswissen die nächste Stufe der KI-Nutzung ist. Dieser Beitrag ist die praktische Seite: Wie schreibt man einen Agent Skill? Was gehört rein, was nicht? Und wie sieht das für typische Marketing-Aufgaben aus? Was ein Agent Skill technisch ist Ein Agent Skill ist auf seine allereinfachste Weise einfach eine Textdatei namens SKILL.md. Nicht mehr, also nicht verrückt machen lassen, nur weil das fancy klingt. Absolut machbar

Weiterlesen »
a screenshot of a chat interface Claude
Uncategorized
Schau ins Denkprotokoll: Was KI-Modelle verraten, wenn man sie laut denken lässt

Ich habe Claude Schere, Stein, Papier spielen lassen. Drei Runden. Claude hat jede einzelne gewonnen. Beeindruckend? Auf den ersten Blick schon. Bis ich ins Denkprotokoll geschaut habe. Dort stand, sinngemäß: „Ich sehe die Wahl des Nutzers, bevor ich meine eigene treffe. Das ist nicht fair.“ Das Ergebnis (3:0 für Claude) sagt wenig. Das Denkprotokoll sagt alles. Ich zeige dieses Beispiel inzwischen in fast jedem Seminar, weil es in dreißig Sekunden demonstriert, was die meisten KI-Nutzer

Weiterlesen »
KI News
So einfach kannst du ComfyUI nutzen: Comfy Cloud ist offiziell aus der Beta raus

ComfyUI ohne eigene GPU, ohne Terminal, ohne Setup, direkt im Browser. Seit dem 4. März 2026 ist Comfy Cloud offiziell aus der Beta. Das klingt nach dem Moment, auf den viele gewartet haben. Meine These: Comfy Cloud ist das einfachste Einstiegstor in ComfyUI, das es gibt. Aber wer regelmäßig und ernsthaft damit arbeitet, sollte die Kosten genau durchrechnen, und Alternativen kennen. Was sich seit der Beta verändert hat In meinem ursprünglichen Post hatte ich Custom

Weiterlesen »
Minimalistische, quadratische Infografik mit dem Haupttitel "EVOLUTION: PROMPT -> CONTEXT -> SKILLS ENGINEERING". Darunter befinden sich drei farblich kodierte, rechteckige Felder, die durch Pfeile von links nach rechts verbunden sind und einen Entwicklungsprozess darstellen. Das linke, hellblaue Feld ist betitelt mit "PROMPT ENGINEERING". Es enthält eine Ikone einer Gedankenblase mit einem Fragezeichen und einer Lupe über Text. Text darunter: "FOCUS: Single Input", "QUESTION: 'How do I formulate my instruction?'", "GOAL: Perfect the prompt". Ein Pfeil zeigt auf das mittlere, hellorange Feld mit dem Titel "CONTEXT ENGINEERING". Die Ikone zeigt Dokumente, eine Cloud-Datenbank und Zahnräder. Text darunter: "FOCUS: Information", "QUESTION: 'What information does the AI need?'", "GOAL: Provide background data". Ein weiterer Pfeil zeigt auf das rechte, hellgrüne Feld mit dem Titel "SKILLS ENGINEERING". Die Ikone zeigt ein Flussdiagramm mit Entscheidungsknoten und einem abgehakten Kontrollkästchen. Text darunter: "FOCUS: Process Knowledge", "QUESTION: 'What process knowledge does the AI need?'", "GOAL: Optimize action competence". Am unteren Rand der Grafik fasst eine Zeile das Ergebnis der Evolution zusammen: "OPTIMIZES: Single Interactions -> Knowledge State -> Action Competence".
KI im Einsatz
Skills Engineering: Ist das was Neues oder die Weiterentwicklung von Prompt- und Context Engineering?

Nach Prompt Engineering kam Context Engineering. Jetzt zeichnet sich ab, was als Nächstes kommt: Skills Engineering. Ich rechne damit, dass der Begriff in den kommenden Monaten zunehmend auftaucht. Denn die Entwicklung dahin, was damit gemeint ist, ist sinnvoll und konsequent, wenn man bessere Ergebnisse mit KI erzielen will. Was ist Skills Engineering? „Skills Engineering beschreibt die Kompetenz, menschliches Prozesswissen so aufzubereiten, dass KI-Agenten es nutzen können.“ (Vroni) Das klingt abstrakt, meint aber etwas sehr Konkretes.

Weiterlesen »
Aktuelles
Nano Banana 2: Pro-Qualität zum Flash-Preis?

Google hat letzte Woche Nano Banana 2 veröffentlicht, technisch das Modell Gemini 3.1 Flash Image. Es ersetzt Nano Banana Pro als Standard in der Gemini-App und soll Pro-Level-Qualität bei deutlich höherer Geschwindigkeit und rund halbem Preis liefern. Ich hab’s direkt gegen Pro antreten lassen. Mein erster Eindruck: Nano Banana 2 ist verdammt nah dran. Aber vor allem ist es schnell. Geschwindigkeit als echter Hebel Während man bei Pro teilweise Minuten auf ein einzelnes Bild warten

Weiterlesen »
Aktuelles
Die neue Knappheit: Warum mehr Content weniger wert ist

Content kostet fast nichts mehr. Ein Blogpost? Fünf Minuten mit Claude. Zehn Social-Media-Varianten? Noch mal drei Minuten. Ein kompletter Redaktionsplan für sechs Monate? Eine Stunde, wenn man gründlich ist. Die Produktionskosten sind auf nahezu Null gefallen. Und genau deshalb ist die meiste Content-Strategie, die ich sehe, gerade dabei, wertlos zu werden. Das klingt paradox. Aber die Ökonomie ist eindeutig: Wenn etwas im Überfluss existiert, verliert es seinen Wert. Was knapp bleibt, wird kostbar. Content ist

Weiterlesen »

Hey Du. Willst du AI Content Manager werden?

Dann ab ins kostenfreie Info-Webinar am 25.03. um 12:00 Uhr. 

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳