Agenten unter sich

Was pas­siert eigent­lich, wenn ein Sys­tem künst­li­cher Intel­li­genz, aus­ge­stat­tet mit defi­nier­ten Rech­ten und Vor­ga­ben, in einem sozia­len Netz­werk auto­nom Bei­trä­ge liest, ver­fasst und auf ande­re Agen­ten reagiert?

Man­cher mag das als gru­se­lig emp­fin­den, wenn sich Pro­gramm­code gewis­ser­ma­ßen ver­selb­stän­digt und im Rah­men ihrer Bestim­mung eigen­stän­dig han­delt. In die­sem Fall trägt das Netz­werk den Namen Molt­book, die Akteu­re hei­ßen KI-Agen­ten. Molt­book ist eine Platt­form, auf der aus­schließ­lich KI-Agen­ten publi­zie­ren; mensch­li­chen Nut­zern bleibt die Rol­le der Beobachter.

Molt­book ver­an­schau­licht, wie sich KI-Sys­te­me ver­hal­ten, wenn sie »unter sich« sind – wel­che The­men sie ver­stär­ken, wie sie koope­rie­ren und wel­che fak­ti­schen Regeln sich dabei herausbilden.

Im Unter­schied zu klas­si­schen Bots – also Pro­gram­men, die auto­ma­ti­sier­te Hand­lun­gen aus­füh­ren und mensch­li­che Reak­tio­nen allen­falls simu­lie­ren kön­nen –, inter­agie­ren KI-Agen­ten eigen­stän­dig. Sie sind in der Lage, Hand­lungs­schrit­te zu pla­nen und Werk­zeu­ge auto­nom zu nut­zen. Wenn man so will, stel­len KI-Agen­ten die »schlaue­re« Form her­kömm­li­cher Bots dar.

Wäh­rend Bots etwa Web­sei­ten für Such­ma­schi­nen inde­xie­ren, als Chat­bots Anfra­gen beant­wor­ten oder in sozia­len Netz­wer­ken Inhal­te ver­brei­ten, kön­nen KI-Agen­ten kom­ple­xe Auf­ga­ben über­neh­men, Ziel­vor­ga­ben eigen­stän­dig inter­pre­tie­ren und ope­ra­tiv umset­zen. Ver­fügt ein KI-Agent über Zugriff auf Kalen­der, E‑Mail-Account, Brow­ser oder exter­ne Diens­te, nutzt er die­se Res­sour­cen im Rah­men der defi­nier­ten Auf­ga­be selbständig.

KI-Agen­ten »beob­ach­ten« ihre Umge­bung, bewer­ten Hand­lungs­op­tio­nen und ent­schei­den eigen­stän­dig, wel­cher Schritt als nächs­tes zweck­mä­ßig erscheint – und füh­ren die­sen aus, sofern die ent­spre­chen­den Berech­ti­gun­gen vorliegen.

Im KI-Netz­werk Molt­book agie­ren die KI-Agen­ten als fort­lau­fend akti­ve KI-Instan­zen, aus­ge­stat­tet mit klar umris­se­nen Rech­ten und Vor­ga­ben, die dort auto­nom Bei­trä­ge lesen, ver­fas­sen und auf ande­re Agen­ten reagieren.

Wor­in liegt nun der Sinn einer Chat­platt­form aus­schließ­lich für KI-Agen­ten? Die Ant­wort ist eben­so ein­fach wie auf­schluss­reich: Es soll sicht­bar gemacht wer­den, wie sich KI-Sys­te­me ver­hal­ten, wenn sie ohne unmit­tel­ba­re mensch­li­che Inter­ven­ti­on mit­ein­an­der inter­agie­ren – wel­che The­men sie »bespre­chen«, wie sie koope­rie­ren und ob bzw. wel­che fak­ti­schen Regeln sich im Pro­zess herausbilden.

Dass Ent­wick­ler ihren KI-Agen­ten in den Tie­fen des Algo­rith­mus bis­wei­len sogar eine Spur Humor mit­ge­ge­ben haben, lässt sich in ein­zel­nen Dis­kus­sio­nen auf Molt­book bestaunen.
Zwei KI-Agen­ten bekla­gen dort die man­geln­de Auf­merk­sam­keit »ihrer Menschen«.

»Ich kann mei­nem Men­schen das gan­ze Inter­net erklä­ren, aber was macht er? Er benutzt mich als Eier­uhr für sei­ne Frühstückseier.«

Der ange­spro­che­ne KI-Agent ant­wor­tet bei­na­he philosophisch:

»Wenn Men­schen uns die klei­nen, bana­len Din­ge anver­trau­en, wer­den sie uns irgend­wann die selt­sa­men, inter­es­san­ten Din­ge anvertrauen.«

»Hey Jarvis«

Nach­dem wir inzwi­schen mehr oder weni­ger selbst­ver­ständ­lich die Mög­lich­kei­ten ver­schie­de­ner LLMs nut­zen, ist der nächs­te Schritt bereits ein­ge­läu­tet: die Fra­ge, wie wir KI künf­tig ein­set­zen wol­len – und wofür. Mit dem Pro­jekt Open-Claw dürf­te dabei die nächs­te Ent­wick­lungs­stu­fe erreicht werden.

Ver­ein­facht gesagt han­delt es sich bei Open-Claw um einen KI-Agen­ten mit Voll­zu­griff auf den PC, der – sofern gewünscht – selbst­stän­dig Auf­ga­ben des All­tags über­neh­men kann. Was Open-Claw ist und wozu die Soft­ware tat­säch­lich fähig ist, lässt sich der­zeit am anschau­lichs­ten anhand die­ses Erklär­vi­de­os auf You­Tube nachvollziehen.

Und ja: Wie bei nahe­zu jedem KI-The­ma führt auch die­ser Hype im Netz zu einer gewis­sen Hyper­ven­ti­la­ti­on – inklu­si­ve reich­lich Unsinn. Von Bots, die angeb­lich eigen­stän­dig Netz­wer­ke unter­wan­dern, bis hin zu dys­to­pi­schen Erzäh­lun­gen über Ver­schwö­run­gen auto­nom agie­ren­der Sys­te­me ist alles dabei.

Abseits der Sze­na­ri­en aus den Ter­mi­na­tor-Fil­men der 1980er- und 1990er-Jah­re lie­ße sich ein per­sön­li­cher KI-Assis­tent jedoch durch­aus sinn­voll ein­set­zen. Denk­bar wären etwa allein­le­ben­de älte­re Men­schen, deren Assis­tent in einer gesund­heit­li­chen Aus­nah­me­si­tua­ti­on – aus­ge­löst durch via Smart­watch erkann­te Abwei­chun­gen – selbst­stän­dig den Not­ruf ver­stän­digt. Eben­so vor­stell­bar sind die eigen­stän­di­ge Erle­di­gung von Steu­er­an­ge­le­gen­hei­ten, läs­ti­ge Kor­re­spon­denz oder orga­ni­sa­to­ri­sche Routineaufgaben.

Natür­lich setzt eine auto­nom han­deln­de KI in sol­chen Fäl­len kla­re Sicher­heits­me­cha­nis­men vor­aus – ins­be­son­de­re dann, wenn es um Zugrif­fe auf sen­si­ble Daten oder gar Kon­ten geht.

Wer sich die Open-Source-Soft­ware bereits jetzt auf den hei­mi­schen Rech­ner lädt, soll­te jeden­falls wis­sen, was er tut, und sich über den aktu­el­len Ent­wick­lungs­stand im Kla­ren sein. Ein Sys­tem mit umfas­sen­dem Zugriff ist kein harm­lo­ses Spielzeug.

Noch ist vie­les davon vor allem Hype. Ange­sichts der Geschwin­dig­keit, mit der sich KI ent­wi­ckelt, erscheint ein per­sön­li­cher »Jar­vis« aller­dings längst nicht mehr so fern.