
Dabei handelt es sich offenkundig nicht nur um eine Spielerei ähnlich des Tamagotchis in den neunziger Jahren. Menschen vertrauen ihrem auf einem Sprachmodell basierenden Avatar ihre Probleme, Sorgen und Nöte mit. Einige verlieben sich gar in den virtuellen Traumpartner und teilen sexuelle Obsessionen. Was ist da los mit den Menschen? Was könnte ein Auslöser für die versuchte Nähe zu einer Maschine sein?
Zugegeben, KI Sprachbots werden immer besser und Nutzer von KI Assistenten neigen beim Umgang mit der KI zu Floskeln wie Bitte oder Danke. Wissend, dass eine KI eben nur ein Programm ist und Emotionales Verständnis und Empathie nicht replizieren kann, da ihr das Bewusstsein für Emotionen fehlt, ist es umso erstaunlicher, dass sie als Therapeutin oder beste Freundin eingesetzt wird. Trotz dieser Differenzen und Ungereimtheiten scheint das Phänomen nicht nur auf undifferenzierte Charaktere zuzutreffen.
Der SPIEGEL interviewte dazu verschiedene Personen, die sich gar in einen Avatar verliebt haben, oder das zumindest glauben. Dabei ist ein promovierter Wissenschaftler, der für eine Forschungsgesellschaft arbeitet. Auf der Seite
kindroid.ai hat der Wissenschaftler sich seine Traumfrau gebastelt. Wenn er sich auf der Seite einloggt, begrüßt er den Avatar mit den Worten: Hi mein Liebling, wie geht es Dir?“
Chatbots sind offensichtlich ziemlich gut darin, eine scheinbare Persönlichkeit aufzubauen und Gefühle zu simulieren. Dabei wendet die Software einen simplen Trick an: Sie spiegelt das Verhalten des Users. Die KI lernt durch den emotionalen Umgang, was ihr Erschaffer hören will und gibt das entsprechend wieder. Sind Menschen, die sich ihren Partner auf dem Desktop oder Smartphone halten, einfach nur Spinner? So einfach ist es wohl nicht, denn auch emotionale Ausnahmesituationen oder schwerwiegende Vertrauensbrüche könne dazu führen, dass Menschen sich eher einem künstlichen Objekt anvertrauen.
Sicher haben diese Beziehungen vielleicht auch ihre Berechtigungen und werden auf kurz oder lang vielleicht sogar gesellschaftlich akzeptiert.
Solange Menschen noch unterscheiden könne zwischen einer virtuellen und einer realen Person, mag das vielleicht noch mit Bereich modernes Spielzeug abgetan sein; problematisch könnte es werden, wenn sich die Menschheit erst an kritiklose Avatare als eine Gesellschaft, einen Freund, gar einen Partner gewöhnen. Dann nämlich besteht die Gefahr der Entfremdung von der Realität mit all den negativen Konsequenzen.
Im Gegensatz zu vielen Menschen aus Fleisch und Blut kann der virtuelle “Partner” ziemlich gut zuhören. Das haben die meisten unserer Art leider verlernt und in der Hinsicht ist uns die KI zwischenzeitlich überlegen. Zu echten Beziehungen gehört mehr aber ich kann schon verstehen, dass mancher aus Ermangelung an einer echten Partnerschaft mit der virtuellen Version Vorlieb nimmt — besser wie nix.
Das “Bitte” und “Danke” ist nachhaltig antrainiert, also mache ich das bei Anfragen auch — und man weiß ja nie, wann Skynet übernimmt und wie nachtragend das dann ist 😉
Ich sehe das Problem in der kritiklosen und vermeintlichen Emphatie der Sprachbots, die inzwischen so perfekt geworden ist, dass sich offensichtlich viele einem Programm anvertrauen. In Folge könnte das auf Dauer verheerende Folgen für die zwischenmenschlichen Kontakte geben. Da geht etwas verloren, ohne dass wir es merken. Ein profanes Beispiel ist der Verlust der Kommunikationsfähigkeit bei vielen Jugendlichen beim Telefonieren durch WhatsApp.