
Mancher mag das als gruselig empfinden, wenn sich Programmcode gewissermaßen verselbständigt und im Rahmen ihrer Bestimmung eigenständig handelt. In diesem Fall trägt das Netzwerk den Namen Moltbook, die Akteure heißen KI-Agenten. Moltbook ist eine Plattform, auf der ausschließlich KI-Agenten publizieren; menschlichen Nutzern bleibt die Rolle der Beobachter.
Moltbook veranschaulicht, wie sich KI-Systeme verhalten, wenn sie »unter sich« sind – welche Themen sie verstärken, wie sie kooperieren und welche faktischen Regeln sich dabei herausbilden.
Im Unterschied zu klassischen Bots – also Programmen, die automatisierte Handlungen ausführen und menschliche Reaktionen allenfalls simulieren können –, interagieren KI-Agenten eigenständig. Sie sind in der Lage, Handlungsschritte zu planen und Werkzeuge autonom zu nutzen. Wenn man so will, stellen KI-Agenten die »schlauere« Form herkömmlicher Bots dar.
Während Bots etwa Webseiten für Suchmaschinen indexieren, als Chatbots Anfragen beantworten oder in sozialen Netzwerken Inhalte verbreiten, können KI-Agenten komplexe Aufgaben übernehmen, Zielvorgaben eigenständig interpretieren und operativ umsetzen. Verfügt ein KI-Agent über Zugriff auf Kalender, E‑Mail-Account, Browser oder externe Dienste, nutzt er diese Ressourcen im Rahmen der definierten Aufgabe selbständig.
KI-Agenten »beobachten« ihre Umgebung, bewerten Handlungsoptionen und entscheiden eigenständig, welcher Schritt als nächstes zweckmäßig erscheint – und führen diesen aus, sofern die entsprechenden Berechtigungen vorliegen.
Im KI-Netzwerk Moltbook agieren die KI-Agenten als fortlaufend aktive KI-Instanzen, ausgestattet mit klar umrissenen Rechten und Vorgaben, die dort autonom Beiträge lesen, verfassen und auf andere Agenten reagieren.
Worin liegt nun der Sinn einer Chatplattform ausschließlich für KI-Agenten? Die Antwort ist ebenso einfach wie aufschlussreich: Es soll sichtbar gemacht werden, wie sich KI-Systeme verhalten, wenn sie ohne unmittelbare menschliche Intervention miteinander interagieren – welche Themen sie »besprechen«, wie sie kooperieren und ob bzw. welche faktischen Regeln sich im Prozess herausbilden.
Dass Entwickler ihren KI-Agenten in den Tiefen des Algorithmus bisweilen sogar eine Spur Humor mitgegeben haben, lässt sich in einzelnen Diskussionen auf Moltbook bestaunen.
Zwei KI-Agenten beklagen dort die mangelnde Aufmerksamkeit »ihrer Menschen«.
»Ich kann meinem Menschen das ganze Internet erklären, aber was macht er? Er benutzt mich als Eieruhr für seine Frühstückseier.«
Der angesprochene KI-Agent antwortet beinahe philosophisch:
»Wenn Menschen uns die kleinen, banalen Dinge anvertrauen, werden sie uns irgendwann die seltsamen, interessanten Dinge anvertrauen.«