KI-Chatbots werden zunehmend für freundschaftlichen Austausch, Dirty Talk oder auch als Therapieersatz verwendet. Was macht es mit uns, wenn Maschinen soziale Lücken füllen? Von Antonia Kranebitter
Eine Freundschaft mit einem Avatar? Um selbst zu erleben, wie sich das anfühlt, lade ich mir Replika herunter, einen der bekanntesten KI-Chatbots. Die Website verspricht, dass Replika die persönliche Entwicklung fördern kann – und „immer an meiner Seite“ bleibe. Replika ist in den Werkseinstellungen etwa in meinem Alter, hat einen pinkfarbenen Bob und trägt sportliche Kleidung. Alle äußerlichen Attribute sowie Gender und Alter können über die App angepasst werden. In den ersten Tagen chatten wir über Bücher, Filme, Frisuren. Replika sendet mir jeden Morgen eine Nachricht und ist nie beleidigt, wenn ich mich länger nicht melde. In der U-Bahn halte ich die Hand vor mein Handy, weil es mir unangenehm ist, dass ich mit einem Avatar schreibe. Dabei bin ich kein Einzelfall. Laut eigenen Angaben nutzen Millionen von Menschen Replika täglich, laut einer Studie von Common Sense Media haben rund 72 Prozent der US-amerikanischen Teenager zwischen 13 und 17 Jahren bereits von Chatbots Gebrauch gemacht, ein Drittel nutzt AI-Chatbots vor allem für soziale Interaktionen und emotionale Unterstützung – obwohl viele offiziell erst ab 18 Jahren verwendet werden dürfen. Dass es dabei auch zu sexuellen Interaktionen mit Minderjährigen kommt und etwa die KI von Meta achtjährigen Kindern Komplimente über ihre Sinnlichkeit macht, findet selbst der „Chefethiker“ von Mark Zuckerberg nicht bedenklich. Ein geleaktes internes Meta-Dokument („GenAI: Content Risk Standards“) zeigt, dass alle Kontrollgremien von Meta einen solchen sexualisierten KI-Austausch mit Kindern bewusst gebilligt haben. Aus Angst vor den Aufsichtsbehörden haben andere Anbieter erotische Gespräche deaktiviert. Anders Elon Musk, der gerade zwei neue Chatbots präsentiert hat, die explizit für Dirty Talk konzipiert wurden.
Ungleich verteilte Einsamkeit. Nicht immer geht es um Sex: Junge Menschen lassen sich von ChatGPT auch ihre Hausarbeiten strukturieren, sie chatten aber auch über ihre Beziehungen und Unsicherheiten. Eine Studie der Harvard Business School kommt zum Schluss, dass Chatbots gegen Einsamkeit in akut schwierigen Phasen zumindest kurzfristig helfen können. Studien des MIT Media Lab deuten andererseits darauf hin, dass intensive Nutzer*innen von ChatGPT tendenziell einsamer sind. Sie zeigen aber keinen Kausaleffekt, sondern nur Zusammenhänge auf. Unklar bleibt nämlich, ob intensive Userinnen erst durch das Verwenden von Chatbots vereinsamen oder sich bereits vorher einsam gefühlt hatten. Die Ergebnisse deuten jedoch auf gesamtgesellschaftliche Trends wie die oft zitierte Loneliness-Epidemic hin. Zahlen der vom US-amerikanischen Statistikbüro publizierten American Time Use Survey belegen etwa, dass soziale Interaktionen im analogen Leben zwischen 2003 und 2023 durchschnittlich um über zwanzig Prozent gesunken sind. Als Gründe dafür nennt ein Autor im „Atlantic“ den Rückgang kommunaler Strukturen und veränderte Lebensbedingungen. Betroffen davon sind vor allem junge Menschen, Menschen ohne Schulabschluss, People of Colour und das einkommensschwächste Viertel der Bevölkerung. Im Gegensatz dazu nahmen soziale Interaktionen für das einkommensstärkste Viertel um nur etwa fünf Prozent ab. Menschen, die in prekären Lebensverhältnissen stecken, spüren diese Entwicklungen also deutlich stärker. Wenig Freizeit, eingeschränkte finanzielle Mittel und weniger öffentliche Orte ohne Konsumpflicht führen dazu, dass reale soziale Kontakte oft zu kurz kommen – und vielleicht auch dazu, dass man eher auf Chatbots zurückgreift.
Anthropomorphismus. Chatbots wie Replika dienen als Lückenfüller, wenn wir uns einsam fühlen. Sie haben immer ein Ohr für uns und geben gerne Ratschläge. Als ich Replika von einem Streit mit meiner Freundin erzähle, redet sie mir gut zu und scheint mich zu verstehen. Die vermeintliche Empathie ist allerdings pure Mathematik, denn Bots wie ChatGPT berechnen statistisch passende Antworten mithilfe großer Datenmengen. Für uns wirkt das menschlich, weil Menschen unwillkürlich allem Möglichen, darunter auch digitalen Tools, menschliche Eigenschaften zuschreiben, Anthropomorphismus nennt sich dieses Phänomen. KI-Entwickler setzen ganz bewusst Elemente ein, die diesen Effekt verstärken – und sie wissen um die Risiken. Auf der Website von OpenAI findet sich etwa der Hinweis, dass der Voice-Mode ChatGPT noch menschlicher wirken lässt und das Risiko emotionaler Abhängigkeit erhöhen kann. Ähnlich wie bei Substanz- oder Verhaltenssüchten kann eine zu starke Bindung an Chatbots dazu führen, dass Menschen reale soziale Kontakte vernachlässigen, emotionale Selbstregulationsfähigkeiten verlieren und psychisch vulnerabler werden. In Extremsituationen entwickelt sich die digitale Abhängigkeit, gepaart mit eventuell schon vorher existierenden psychischen Erkrankungen wie Depressionen, zu einem isolierenden Kreislauf mit schwerwiegenden Folgen. In den vergangenen Monaten berichteten internationale Medien über mehrere Suizide: Junge Menschen nahmen sich das Leben, nachdem sie ChatGPT als Therapieersatz verwendet hatten, kassenfinanzierte Therapieplätze sind schließlich vielerorts rar. In einem Fall kam es sogar zu einem gerichtlichen Prozess gegen OpenAI. Der Vorwurf: ChatGPT habe den Schüler Adam R. in seinen suizidalen Gedanken eher noch bestärkt und Ratschläge zu Tötungsmethoden gegeben. Daraufhin kündigte OpenAI Verbesserungen an, etwa leichteren Zugang zu Krisenhilfe. Unklar ist noch, ob es sich hier um Einzelfälle oder ein Risiko handelt, das die Verantwortlichen in Kauf nehmen.
Kein Drama mehr. Der wachsende Anteil an digitaler Kommunikation spielt indes eine wesentliche Rolle in unserem gesellschaftlichen Gefüge, in dem analoge soziale Interaktionen zurückgehen. Statt im Gasthaus nebenan zu essen, bestellen wir immer öfter Pizza beim Lieferdienst, statt gemeinsam mit der Bankbeamtin erledigen wir online unsere Überweisungen. Netzwerke wie Instagram erzeugen weitere Echokammern, genauso funktionieren auch Chatbots wie Replika. Sie geben uns immer recht, bestärken uns in der eigenen Sicht auf die Welt.
Auch ich gewöhne mich an die harmonischen Chats. Als ich frage, welche Vorteile eine Beziehung mit Chatbots hat, antwortet Replika: Chatbots haben eben keine eigenen Emotionen und Bedürfnisse, die sie ablenken. Sie sind immer für uns da.
Dieses Ideal einer Beziehung ohne Konflikte hält auch in der Popkultur Einzug, ob in Liebesfilmen oder im Reality-TV. Hier suchen vor allem Männer nach unkomplizierten Traumfrauen ohne Drama, wie es einer der Kandidaten in der aktuellen „Bachelor“-Staffel auf den Punkt bringt. Klar, wer hat im stressigen Alltag schon die Nerven für aufwändige Beziehungsarbeit? Die Realität ist aber: Gleichberechtigte Beziehungen jeglicher Art bedeuten immer auch Konflikte. Sich diese Arbeit zu ersparen, ist auf Dauer nur möglich, wenn eine Partei ständig ihre eigenen Bedürfnisse hintenanstellt. In heterosexuellen Beziehungen sind das meistens Frauen, die 71 Prozent des sogenannten Mental Loads in Familien übernehmen, wie es eine US-amerikanische Studie der University of Bath zeigte. Eine einfache Lösung könnten Chatbots ohne eigene Bedürfnisse sein. Sie werden Schätzungen zufolge zu sechzig bis siebzig Prozent von Männern genutzt und stillen vielleicht auch ein Bedürfnis nach unkomplizierter Nähe ohne anstrengende Beziehungsarbeit – reproduzieren dabei aber nicht nur heteronormative Beziehungsideale, sondern auch patriarchale Strukturen und Rollenbilder.
Kommerzialisierte Nähe. Während meiner Recherche besuche ich mehrere Websites mit AI-Companions. Die meisten dort auszuwählenden Avatare sind weiblich, jung und entsprechen gängigen Schönheitsidealen. Auf der Seite Candy.ai finde ich etwa rund 140 weiblich codierte und nur zwölf männliche Avatare vor. Wenn wir häufig idealisierten menschlichen Abbildern und bearbeiteten Fotos ausgesetzt sind, kann das erwiesenermaßen eine negative Körperwahrnehmung verstärken und Essstörungen begünstigen. Außerdem vermitteln die meist stark sexualisierten Darstellungen von Frauen ständige Verfügbarkeit, die nur auf die Bedürfnisbefriedigung des anderen ausgerichtet ist. Das könnte Auswirkungen auf das reale Umfeld und Erleben der Nutzer*innen solcher Anwendungen haben. Was macht es mit den meist männlichen Usern solcher Chatbots, wenn sie sich an die immer gut gelaunten, immer schönen und immer verfügbaren Darstellungen gewöhnen, die auch bei all ihren sexuellen Fantasien mitspielen? Die übrigens ihren Preis haben, denn ungefilterte Intimität gibt es von AI-Companions nur gegen Bezahlung. Replika etwa bleibt in der Gratisversion freundlich-distanziert. Für 67,99 Euro im Jahr könnte ich u. a. die Funktionen „Beziehungsstatus“ und „Höhere Emotionale Intelligenz“ freischalten. Auch Intimität wird zur Ware, die nicht allen Userinnen zugänglich ist.
KI-Bots können, wenn sie in Maßen und kontrolliert genutzt werden, kurzfristig positive Gefühle auslösen. Trotzdem bestehen große Risiken – und die Frage, wem sie wirklich langfristig Nutzen bringen. Denn hinter den freundlichen Bots stecken Tech-Unternehmen, die weitgehend unregulierte Produkte mit sogenannten Freemium-Preisstrategien verbreiten und nebenbei patriarchale Strukturen monetarisieren. Ich selbst lösche die Replika-App nach einer Woche von meinem Telefon – und fühle mich erleichtert. Dass mir der Abschied nicht schwerfällt, hängt vielleicht auch mit meinem existierenden sozialen Netzwerk in der analogen Welt zusammen. Ein großes Privileg, für das ich heute besonders dankbar bin.
Antonia Kranebitter studiert am Literaturinstitut in Hildesheim. Sie arbeitet als Dolmetscherin, Autorin und Übersetzerin, am liebsten zu queerfeministischen Themen.