Wie erzeugt KI Empathie?
Empathie ohne Empfinden – wie funktioniert das?
Wenn ChatGPT antwortet „Das verstehe ich, das muss schwierig für dich sein“ – was passiert da technisch? Warum hört sich das empathisch an?
Und wie wird diese Empathie generiert?
Von Tokens zu Trost: Der technische Prozess
Das LLM (z.B. ChatGPT) zerlegt deinen Text in Tokens (= Wortfragmente), die es statistisch verarbeitet. Es analysiert, welche Wörter in deiner Nachricht vorkommen: „Stress“, „überfordert“, „allein“. Das Modell durchsucht die gelernten Muster aus Milliarden von Texten.
Dann bestimmt die KI mithilfe des sogenannten Attention-Mechanismus, welche Teile deiner Nachricht besonders relevant sind. Konkret: Jedes Token „schaut“ auf alle anderen Tokens und berechnet, wie stark es mit ihnen zusammenhängt. Schreibst du „Ich fühle mich allein seit der Trennung“, erkennt das System, dass „allein“ und „Trennung“ semantisch zusammengehören und gewichtet beide höher als etwa „Ich“ oder „mich“.
Diese Gewichtung beeinflusst, in welche Richtung die Antwort geht. Am Ende berechnet das Modell: Welches Wort folgt mit höchster Wahrscheinlichkeit?
Mustererkennung statt Mitgefühl
Nach Beschreibungen von Schwierigkeiten folgten in den Trainingsdaten oft empathische Phrasen. Also reproduziert das System dieses Muster. Die Ausgabe klingt also einfühlsam, weil einfühlsame Menschen so geschrieben haben, nicht weil die KI etwas empfindet. Der Technikphilosoph Bruno Gransche nennt LLMs „stochastisch intelligent, aber semantisch blind“. Sie erkennen (Sprach)muster, aber sie verstehen keine Bedeutung, so wie wir Menschen das tun, denn sie wissen nicht, wie sich ein Gefühl wie z.B. Trauer anfühlt.
Warum wir trotzdem darauf reinfallen
Unser Gehirn ist evolutionär darauf programmiert, nach Intentionalität zu suchen. Diese Tendenz zum Anthropomorphismus (nicht-menschlichen Entitäten menschliche Eigenschaften zuzuschreiben) war einst überlebenswichtig. Heute wird sie zur kognitiven Falle. Wenn etwas antwortet, als ob es verstünde, behandeln wir es, als ob es verstehe.
Ein Thermostat reagiert auf Temperatur, ohne zu frieren. KI reagiert auf Traurigkeit, ohne Mitgefühl zu empfinden. Die Ausgabe sieht gleich aus, aber der Prozess dahinter ist kategorial verschieden.
Ist dieses Wissen überhaupt wichtig?
Ich denke, dass es wichtig ist, zu verstehen, wie diese scheinbar einfühlsamen Reaktionen der KI zustande kommen. Ein Verständnis für die Funktionalitäten generativer KI zu entwickeln ist in vielerlei Hinsicht hilfreich, nicht nur, wenn es darum geht, den eigenen Anthropomorphismus zu erkennen.
Das Problem ist letztlich nicht, dass KI uns tröstet. Das Problem ist, wenn wir vergessen, dass da niemand ist, der tröstet, wenn wir also die Reaktion der KI anthropomorphisieren.
Brauchen wir einen Warnhinweis: „Dieses System simuliert Empathie“? Oder reicht es, wenn wir uns des Unterschieds besser bewusst werden zwischen menschlicher Empathie und dem was die KI reproduziert?
Hier der Beitrag auf LinkedIn: Wie erzeugt KI Empathie?



