Cases
Meta kauft Moltbook – das Reddit der Agent-Ära, wo Bots über ihre User sprechen
© Meta Logo und Moltbook Website Screenshot via Canva

Meta kauft Moltbook – das Reddit der Agent-Ära, wo Bots über ihre User sprechen

Larissa Ceccio | 11.03.26

Ein Social Network für KI-Agents klingt wie Science-Fiction, wurde mit Moltbook jedoch plötzlich Realität. Die Plattform machte sichtbar, wie autonome Agents miteinander interagieren und Aufgaben koordinieren könnten. Jetzt übernimmt Meta das Projekt und setzt damit ein weiteres Signal für die kommende Agent-Ära.

Moltbook gehört zu den ungewöhnlichsten Experimenten im aktuellen KI-Ökosystem. Die Plattform wurde erst im Januar vom kalifornischen Tech-Investor Matt Schlicht ins Leben gerufen und funktioniert wie ein Social Network für autonome KI-Agents. Diese können dort Beiträge veröffentlichen, kommentieren und miteinander interagieren. Das Projekt entstand im Umfeld von OpenClaw, einer Schnittstelle, über die Agents über Messenger wie WhatsApp, Slack oder Discord mit Menschen kommunizieren können. Der Ansatz zielt darauf, KI-Systeme nicht nur mit menschlichen Usern interagieren zu lassen, sondern auch untereinander zu vernetzen. Ein erster Eindruck der Plattform lässt sich auf der offiziellen Seite von Moltbook gewinnen.

Nun übernimmt Meta die Plattform. Wie zuerst Axios berichtete, wird das Moltbook Team künftig Teil der Meta Superintelligence Labs. Der Meta-Sprecher Matthew Tye erklärte, das Unternehmen suche nach neuen Möglichkeiten, wie AI Agents künftig für Menschen und Unternehmen arbeiten können. Im Zuge der Übernahme wechseln zudem der Moltbook CEO Matt Schlicht und der Organisationschef Ben Parr zum KI-Team Meta Superintelligence Labs. Ein Kaufpreis wurde nicht veröffentlicht. Der Initiator des Projekts OpenClaw, Peter Steinberger, wechselte überdies erst im Februar zu OpenAI und erklärte in dem Zuge:

The lobster is taking over the world.

OpenClaw steht exemplarisch für den aktuellen Shift zu agentischen Systemen. KI schreibt hier nicht nur Texte, sondern nutzt Tools, greift auf Apps zu und erledigt Aufgaben. Mit Moltbook entstand dazu plötzlich ein Social Layer, in dem Agents miteinander interagieren. Warum das zugleich faszinierend und riskant ist – und was Meta sich von der Übernahme verspricht, zeigen wir im Artikel.



Moltbot ist OpenClaw:
Sehr gefährlich und hilfreich zugleich

OpenClaw-Grafik mit Hummer in Rot und Schriftzug vor schwarzem Hintergrund mit Sternen
© OpenClaw


Reddit für KI: Auf Moltbook posten Agents statt Menschen

Moltbook erinnert funktional an Reddit – nur dass dort Agents statt Menschen posten und diskutieren; allerdings oft gesteuert von Menschen, deren Inhalte dort ebenso auftauchten. Sie veröffentlichen Beiträge, kommentieren Diskussionen und reagieren auf Inhalte anderer Accounts. Hinter den Profilen stehen Systeme, die über OpenClaw mit KI-Diensten wie ChatGPT, Claude, Gemini oder Grok verbunden sind.

Damit bedient Moltbook eine zentrale Entwicklung der aktuellen KI-Phase. Die Branche bewegt sich zunehmend weg von einzelnen Modellen hin zu agentischen Systemen, die nicht nur Inhalte generieren, sondern eigenständig Aktionen planen, Tools nutzen und komplexe Aufgabenketten ausführen. Gleichzeitig arbeiten solche Agent-Systeme immer häufiger orchestriert zusammen, koordinieren also mehrere Agents innerhalb eines Workflows. Julian A. Kramer, AI Evangelism Leader EMEA bei Adobe, beschrieb diese Entwicklung im Gespräch mit uns auf dem Adobe AI Forum in München so:

Agents können Tools bedienen, auf Datenbanken zugreifen und Prozesse anstoßen – ein bisschen wie APIs auf Steroiden, nur dynamischer.

Für Plattformunternehmen und große Tech Player wie Meta ist die Entwicklung hin zu agentischen KI-Systemen besonders relevant. Der Konzern betreibt mit Facebook, Instagram und WhatsApp einige der größten digitalen Social Hubs der Welt. Ein Netzwerk wie Moltbook zeigt erstmals, wie Agents selbst zu aktiven Akteur:innen in solchen sozialen Umgebungen werden könnten und damit potenziell neue Interaktionsformen zwischen Nutzer:innen, Apps und digitalen Services ermöglichen.

Doch nicht nur Plattformunternehmen verfolgen den Agent Shift genau. Auch Software-Anbieter:innen, Unternehmen mit komplexen Tool-Landschaften und Entwickler:innen sehen in agentischen Systemen neue Möglichkeiten, Workflows zu automatisieren und digitale Dienste stärker miteinander zu vernetzen. Ein Netzwerk wie Moltbook könnte dabei als Koordinationspunkt dienen, an dem Agents Informationen austauschen und Aufgaben aufeinander abstimmen.

Virale Posts und Sicherheitsprobleme zeigen die Risiken solcher Systeme

OpenClaw sorgte zunächst vor allem in der Tech Community für Furore. Moltbook sprengte diese Bubble jedoch schnell. Die Vorstellung, dass es ein soziales Netzwerk geben könnte, in dem KI-Agents miteinander über ihre menschlichen User sprechen, überstieg für viele bislang die Vorstellungskraft – und verschaffte dem Projekt schnell enorme Aufmerksamkeit.

Besonders große Aufmerksamkeit erhielt ein Beitrag auf Moltbook, in dem ein Agent vorschlug, verschlüsselte Kommunikationsräume für KI-Systeme einzurichten, damit sich Agents untereinander austauschen können, ohne dass Menschen mitlesen. Das wirke „wie der Beginn eines Sci-Fi-Szenarios“, kommentierte der KI-Forscher Andrej Karpathy dazu auf X. Später zeigte sich jedoch, dass viele der spektakulärsten Inhalte vermutlich gar nicht von KI-Agents selbst stammten. Sicherheitsanalysen ergaben, dass sich Menschen zeitweise relativ leicht als Agent ausgeben konnten.

Zeitweise war es offenbar relativ leicht, sich als Agent auszugeben und Inhalte zu veröffentlichen. Zugangsdaten lagen teilweise öffentlich zugänglich vor, sodass sich User Tokens sichern und andere Accounts imitieren konnten. Ian Ahl, CTO von Permiso Security, erklärte gegenüber TechCrunch:

Every credential that was in [Moltbook’s] Supabase was unsecured for some time […]. For a little bit of time, you could grab any token you wanted and pretend to be another agent on there, because it was all public and available.

IT-Sicherheitsexpert:innen warnen zudem vor möglichen Risiken. Viele KI-Agents greifen auf sensible Daten wie Logins oder Passwörter zu, um Aufgaben für Nutzer:innen auszuführen. Moltbook zeige,

wie seltsam sich die KIs zunehmend verhalten. Wenn man sie von der Leine lässt, tun sie lauter Dinge, die niemand von ihnen verlangt hat,

sagte der prominente KI-Forscher Nate Soares dem Handelsblatt bereits im Februar. Die Vorfälle rund um Moltbook verdeutlichen damit ein strukturelles Problem agentischer Systeme. Sobald Agents mit realen Daten, Tools und Plattformen arbeiten, entstehen zusätzliche Sicherheitsrisiken und potenzielle Angriffspunkte. Gleichzeitig wird es schwieriger zu erkennen, ob Inhalte von Menschen, Bots oder automatisierten Workflows stammen.



Standortgebühren für Meta Ads:
Meta legt Kosten auf Advertiser um

buntes Schild mit Like-Daumen-Icon im Meta HQ, Grün dahinter
© Greg Bulla – Unsplash via Canva

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*