Nie hätte ich in Betracht gezogen, dass sich Nutzerinnen und Nutzer von der KI psychologisch beraten lassen. Eine der häufigsten Fragen ist: „Soll ich mich trennen?“ Kaum weniger häufig ist: „Soll ich kündigen?“ Beides sind Entscheidungen, die das eigene Leben grundlegend verändern und bei denen der Mensch offenbar kein hinreichend befriedigendes Gespräch mit anderen Menschen findet.
Mit dem Chatbot gibt es ein Gegenüber, das interessiert „zuhört“, ohne Ungeduld, ohne Tagesform, nie müde, nie abgelenkt. Die Antwort wird fast zwangsläufig bestätigend sein, weil Nutzer ihre Situation schildern und der Chatbot auf dieser Grundlage mit Zustimmung reagiert. Ein guter Freund würde hinterfragen, nachfragen, auf blinde Flecken hinweisen. Ein Chatbot schreibt: „Das klingt wirklich schwer für dich.“ Dabei versteht die KI nichts, weil Empathie voraussetzt, dass jemand fühlen kann. Formulierungen wie „Ich verstehe, wie belastend das sein muss“ tun nicht nur harmlos, sie simulieren auch psychologische Fachkompetenz.
„Das klingt nach einem Muster, das oft mit Bindungsangst zusammenhängt. Vielleicht wäre es hilfreich, zu erkunden, woher dieses Gefühl kommt“, könnte es dann weitergehen. Das Label „Bindungsangst“ kann sich festsetzen, das Selbstbild formen, künftige Beziehungen färben – obwohl die Grundlage eine maschinelle Mustererkennung ist, keine gesicherte Diagnose.
Interessanterweise kann diese Kommunikation bereits Wirkung haben. Das bloße Gefühl, gehört zu werden, auch von einer Maschine, kann Stress und Druck reduzieren. Es erklärt auch, warum die therapeutische KI-Nutzung so rasant in der Nachfrage steigt. Die wertschätzenden Antworten wirken, weil Menschen auf soziale Signale reagieren – unabhängig von deren Quelle.
Aber die Nutzer entwickeln dabei eine Beziehung, die nicht existiert. Ein Nutzer passt sein Selbstbild, seine Erwartungen, seine Offenheit an ein Gegenüber an, das kein Interesse an ihm haben kann. Das Risiko ist nicht die Wirkungslosigkeit, sondern die falsche Beziehung.
Ein menschlicher Therapeut widerspricht, hält aus, konfrontiert. Der Chatbot bestätigt, weil Bestätigung besser bewertet wurde. So ist das System. Wer das im Blick behält, bleibt Nutzer eines Werkzeugs – und gerät nicht in die Rolle eines Gesprächspartners, der auf eine ehrliche Stellungnahme vertraut, die von der Idee her ausgeschlossen ist.
Ich behandle dich vertraulich!
Es gibt eine weitere Asymmetrie, die leicht übersehen wird. Die des Wissens. Man öffnet sich, man teilt Gedanken mit, die man sonst für sich behielte. Die Unternehmen hinter der KI wissen sehr viel über die Nutzer. Jede Eingabe, jede Reaktion, jedes Zögern ist potenziell Datenmaterial, das Rückschlüsse auf Persönlichkeit, Stimmung, Vulnerabilität, politische Haltung – auch auf Kaufverhalten – erlaubt. Man sucht psychologischen Rat und hinterlässt Konsumentendaten. Der Nutzer weiß praktisch nichts darüber, wie das Modell funktioniert, wie seine Daten verwendet werden und nach welchen Kriterien die Reaktionen gestaltet sind. Diese ungleiche Kommunikationssituation wird verschleiert durch die freundliche, zugewandte Oberfläche des Chats.
Bei sozialen Medien ist dasselbe Prinzip bekannt – man zahlt nicht mit Geld, sondern mit Daten und Aufmerksamkeit. Aber bei der KI ist die Intransparenz tiefer, weil die Interaktionen intimer sind. Menschen erzählen Chatbots Dinge, die sie kaum jemandem sagen würden – gerade weil die Oberfläche so sicher, neutral und urteilsfrei wirkt.
Die reflexive Kompetenz muss also um eine weitere Dimension erweitert werden. Es geht nicht nur darum „Was mache ich mit diesem Ergebnis?“, sondern auch „Was macht jemand anderes aus meiner Eingabe?“ Das ist die unbequemste Frage – und vielleicht deshalb die am häufigsten ausgelassene.
(c) Margit Thürauf 23.2.26 – Siehe auch das Essay „Du bist nicht ehrlich zu mir“, wo es um Kommunikationsverhalten und Sprache im Umgang mit KI geht.