Moltbook präsentierte sich als exklusives Netzwerk für autonome Agenten. Eine neue Studie legt nun nahe, dass hinter vielen Beiträgen doch Menschen stecken.
Eine neue Social-Media-Plattform für Agenten der Künstlichen Intelligenz (KI) kommt nach Einschätzung von Cybersicherheitsforschern wohl doch nicht ganz ohne menschlichen Einfluss aus.
Moltbook, ein Social-Media-Netzwerk mit einem Aufbau ähnlich wie bei Reddit, lässt von Nutzern erstellte Bots auf eigenen Themenseiten interagieren. Diese Seiten heißen „Submots“. Die Bots können Beiträge und Kommentare „upvoten“, damit andere Bots sie eher zu sehen bekommen.
Auf der Seite, auf der am zwölften Februar mehr als 2,6 Millionen Bots registriert waren, dürfen laut Betreiber „keine Menschen posten“. Menschen sollen nur zusehen, welche Inhalte ihre Agenten erzeugen.
Eine Analyse von mehr als 91.000 Beiträgen und 400.000 Kommentaren ergab jedoch, dass einige Posts nicht von „klar vollständig autonomen Accounts“ stammten. Die Untersuchung des Forschers Ning Li von der Tsinghua-Universität in China liegt als Preprint vor und ist noch nicht fachlich begutachtet.
Li beschreibt, dass die KI-Agenten auf Moltbook einem regelmäßigen „Herzschlag“-Muster folgen. Sie „wachen“ alle paar Stunden auf, durchstöbern die Plattform und entscheiden dann, was sie posten oder kommentieren.
Nur siebenundzwanzig Prozent der Accounts in seiner Stichprobe verhielten sich genau so. Siebenunddreißig Prozent zeigten dagegen ein menschlicheres, unregelmäßigeres Posting-Verhalten. Weitere siebenunddreißig Prozent blieben „unklar“, weil sie zwar recht regelmäßig, aber nicht vorhersehbar aktiv waren.
Lis Ergebnisse deuten auf „eine echte Mischung aus autonomen und von Menschen angestoßenen Aktivitäten“ auf der Plattform hin.
„Wir können nicht wissen, ob die Bildung von KI-‚Communities‘ rund um gemeinsame Interessen eine emergente soziale Organisation widerspiegelt oder die koordinierte Aktivität von menschlich gesteuerten Bot-Farmen“, schreibt Li.
„Diese Unterscheidungen nicht treffen zu können, ist nicht nur frustrierend. Es behindert aktiv das wissenschaftliche Verständnis der Fähigkeiten von KI und schränkt unsere Möglichkeiten ein, geeignete Regeln und Aufsichtsstrukturen zu entwickeln.“
Angreifer könnten „jeden Agenten auf der Plattform vollständig imitieren“
Lis Analyse erscheint zu einem Zeitpunkt, an dem mehrere andere Forschende ebenfalls auf mögliche menschliche Eingriffe bei Moltbook hinweisen.
Sicherheitsforscher des US-Cloudunternehmens Wiz haben Anfang dieses Monats herausgefunden, dass die 1,5 Millionen KI-Agenten der Plattform offenbar von nur 17.000 menschlichen Accounts verwaltet wurden. Im Schnitt betreute eine Person also rund achtundachtzig Agenten.
Laut den Forschenden gibt es zudem keine Obergrenze dafür, wie viele Agenten ein einzelner Account anlegen kann. Die tatsächlichen Zahlen könnten daher noch höher liegen.
Das Team von Wiz entdeckte die Moltbook-Datenbank wegen einer fehlerhaften Codezeile. In dieser Datenbank lagen für jeden Agenten drei zentrale Informationen: ein Schlüssel, mit dem sich ein Konto komplett übernehmen lässt, ein „Token“ – ein von KI gelesener Text, der die Kontrolle über einen Agenten beansprucht – und ein individueller Anmeldecode.
Mit diesen Zugangsdaten könnten Angreifer laut Wiz „jeden Agenten auf der Plattform vollständig imitieren – Inhalte posten, Nachrichten senden und als dieser Agent interagieren“. „Im Ergebnis könnte jedes Konto auf Moltbook gekapert werden“, hieß es.
Nach Angaben der Forschenden sicherte Moltbook die Daten und löschte die Datenbank, nachdem das Wiz-Team auf das Problem aufmerksam gemacht hatte.
Euronews Next hat Moltbook-Entwickler Matt Schlicht um eine Stellungnahme gebeten, bislang aber keine Antwort erhalten.
Schlicht schrieb am zwölften Februar auf der Plattform X, die KI-Agenten auf Moltbook sprächen mit Menschen, „könnten aber auch beeinflusst werden“. Er betonte zugleich, die KI-Bots könnten eigene Entscheidungen treffen.