Du betrachtest gerade Du bist nicht ehrlich zu mir!

Du bist nicht ehrlich zu mir!

  • Beitrags-Kategorie:Essay / Margit Thürauf
  • Lesedauer:6 Min. Lesezeit

Die Kommunikation mit Chatbots wirkt zunehmend wie eine zwischen Menschen. Wir benutzen menschliche Wörter für technische Vorgänge. KI ist nicht geduldig und nicht aufmerksam, sie simuliert Affekte. Sie antwortet mir nicht, sie generiert Ergebnisse. Sie ist nicht „ehrlich“ zu mir, denn das setzt voraus, dass jemand weiß, was wahr und unwahr ist. Im Alltag benutzen wir „ehrlich“ oft als Kurzform für nicht ausweichend, sachlich, nicht beschönigend. Ehrlich ist jedoch eine moralische Kategorie, die für Maschinen nicht zutrifft. Sie setzt Bewusstsein voraus. KI erzeugt Antworten auf Basis von Daten und Wahrscheinlichkeiten. 

Hängt die Zuschreibung von menschlichen Eigenschaften damit zusammen, dass KI in ganzen Sätzen antwortet und von „ich“ spricht. „Ich erstelle ein Bild.“ Behandeln wir sie deshalb wie ein Gegenüber, obwohl sie ein virtuelles System ist? „Das Bild wird generiert“, wäre korrekter. 

Oder liegt es an den „geduldigen, freundlichen“ Antworten? Ki ist darauf trainiert, dass Antworten eher akzeptiert werden, wenn sie wertschätzend, empathisch und bestätigend anfühlen. Die „Wertschätzung“ ist kein Charakterzug, sondern ein optimiertes Muster. Chatbots tendieren zur Bestätigung , weil Bestätigung besser bewertet wurde. Ein Chatbot ist also strukturell eine Ja-Sager-Maschine. Und Menschen mögen es, wenn sie bestätigt werden. 

Im Laufe der Nutzung schmuggeln sich fast zwangsläufig menschliche Zuweisungen ein. „Die KI hat kapiert!“ Richtiger wäre: Sie verarbeitet meinen Input. „Die KI merkt sich eine frühere Unterhaltung.“ Nein, sie greift auf einen früheren Chat zurück. Manche bedanken sich bei der KI. Das kann man natürlich machen. Ich mache das manchmal bei meinem Computer. Aber der antwortet mir nicht „danke, gern geschehen.“ Eine Maschine kann nichts gern oder weniger gern tun. 

Überhaupt: Welchen Artikel verwende ich? „Die“ KI? Die Intelligenz? Die Maschine? Oder „der“ Chatbot? Oder ganz ohne Artikel? Ich wechsle noch. Die Wahl ist nicht trivial. Grammatisches Geschlecht färbt unbewusst mit, wie wir etwas wahrnehmen, 

Nach einem anfänglichen vertrauten „Du“ spricht mich der Chatbot plötzlich wieder mit „Sie“ an. „Wenn Sie möchten, kann ich …“ Wonach richtet sich die Ansprache? KI entscheidet sich nicht. Sie erkennt Muster und spiegelt sie. Das Modell orientiert sich an Signalen im Kontext. Ich finde „Sie“ passender. Sie ist das Werkzeug, ich der Mensch. Also schreibe ich „du“ – sie reagiert mit „Sie“. 

Profis empfehlen, mit den Chatbots zu sprechen, wie mit einem Menschen, der eine Frage ernstnimmt. Dann formuliert er vollständige Gedanken, erklärt den Kontext, beginnt von sich aus Fragen zu stellen – nicht viele, angeblich „nur die nötigen“. Auch Widerspruch wird empfohlen. Wenn ein Ergebnis nicht passt, das Falsche konkret benennen. Man sagt, die KI „lerne“ daraus, aber auch das ist eine Metapher. Genauer: Das Modell, verändert die folgende Antwort auf Basis der Korrektur und fragt vorher: „Wenn Sie möchten, kann ich das Ergebnis anpassen“. Kein Wunder, dass Nutzer das angenehm finden. Wo findet man schon Leute, die freiwillig und ohne Diskussion ihre Arbeit verändern?

Überall lauern sprachliche Fallen. Ich versuche, von Subjekt- zu Prozess-Beschreibungen zu wechseln. Also weg von „die KI tut X“ (Akteur) hin zu „das System erzeugt X.“ Es ist anstrengend – und manchmal ist die präzise Formulierung schlicht unverständlich.

Trotzdem werden Kritiker einwenden: „Wir wissen alle, dass die Sonne nicht aufgeht und sagen es trotzdem. Wem schadet das?“ Der Unterschied ist: Bei dem Beispiel mit der Sonne steht nichts auf dem Spiel. Bei der KI schon.

Ein realistischer Mittelweg ist wohl kritische Wachheit. Ich beobachte meine eigenen Reaktion, nicht nur die Sprache. Entscheidend ist, zu merken, wann man sich verstanden, bestätigt oder sogar getröstet fühlt – und dann innezuhalten. Das Ergebnis hat diese Reaktion ausgelöst, nicht ein Gegenüber. Die emotionale Wirkung ist real, ihre Quelle nicht. Diese Unterscheidung muss man immer wieder aktiv vollziehen, sie stellt sich nicht automatisch ein.

Es ist wichtig, aber es reicht nicht, präziser zu formulieren. „Das Modell erzeugt hier eine Ausgeabe“ statt „Die KI sagt“ – solche Umformulierungen sind nicht Pedanterie, sondern mentale Übungen. Sie zwingen einen, das Geschehen neu zu rahmen. Man muss nicht in jedem Satz darauf achten, aber es lohnt sich zu fragen: unterstelle ich gerade einem Prozess eine Absicht?

Erfahrungen, auf die wir zurückgreifen

Warum fällt uns die Kommunikation mit Maschinen so schwer? Weil wir keine Muster dafür haben. Maschinen, die uns antworten, gab es ja bisher nicht.  Also greifen wir auf alte Muster zurück.

Schon als  Kinder sprechen wir mit Puppen oder Spielzeugfiguren, als hätten sie Absichten. Das ist evolutionär verankert und KI aktiviert genau diese Schicht.

Selbst in Büchern oder Filmen entwickelten Leser intensive Bindungen an fiktive Figuren. Sie empfanden echte Trauer beim Tod von Serienfiguren.

Oder Orson Welles‘ Krieg der Welten 1938 – wo die Form der Nachrichtensendung Glaubwürdigkeit signalisierte, obwohl es eine fiktive Reportage war. Die Stimme im Radio klang vertraut – und Vertrautheit erzeugt Vertrauen.

Auch die Stimme allein reicht aus. Die menschliche Stimme löst soziale Reaktionen aus – selbst wenn man weiß, dass die Mailbox angesprungen ist. 

„Likes“ sind ein Beispiel aus der neueren Zeit. Sie sind ein Signal für Anerkennung. Menschen reagieren auf Likes mit echten emotionalen Zuständen – Stolz, Enttäuschung, Angst, Erleichterung. Dabei ist ein Like ein flüchtiger Impuls, oft zufällig, oft algorithmisch gesteuert, weil die Plattform bestimmte Inhalte bevorzugt anzeigt. Menschen reagieren trotzdem darauf, als stünde dahinter eine menschliche Haltung.

Jedes Medium, das menschliche Ausdrucksformen imitiert – Stimme, Erzählung, Gesicht, Gespräch – aktiviert soziale Reaktionsmuster, die evolutionär für den Austausch unter echten Menschen entwickelt wurden. Die KI ist die bisher konsequenteste Synthese all dieser Formen. Sie spricht, antwortet, passt sich an – und tut das in Echtzeit, ohne schlechte Laune. Deshalb ist die Reflexion diesmal dringlicher, denn die KI wirkt menschlicher als jede Technik zuvor. 

Fazit

Sprache formt die Art wie wir denken. Wenn wir mit Chatbots kommunizieren, bringen wir unwillkürlich die Kategorien mit, die wir für Menschen entwickelt haben – Verstehen, Absicht, Ehrlichkeit, Wärme. Das ist die Art, wie menschliche Kommunikation funktioniert. 

Das Ziel ist nicht, diese Tendenz zu eliminieren – das ist unrealistisch. Das Ziel ist, sie zu kennen und darauf zu achten. Wer das weiß, kann das KI-Werkzeug trotzdem nutzen, ohne sich von der eigenen Projektion täuschen zu lassen.

Die eigentliche Kompetenz im Umgang mit KI ist also keine technische, sondern eine reflexive: Sich selbst beim Sprechen und Reagieren zu beobachten – und den Unterschied festzuhalten, zwischen dem, was das Modell ausgibt und dem, was wir daraus machen.

Am Ende geht es um eine doppelte Grenze: Menschen nicht zur Maschine machen und Maschinen nicht zu Menschen. Beides passiert leichter, als wir denken und Sprache ist ein wirksamer Ansatz zum Gegensteuern.


(c) Margit Thürauf, 23.2.2026 – Siehe auch den Beitrag „KI-Therapie“ – der an Kompetenzbim Umgang mit KI anschließt.