, ,

Generative KI: Synthetische Empathie

KI kann viel. Schweigen gehört nicht dazu.

Sprachmodelle werden immer besser darin, emotionale Signale zu verarbeiten. Sie identifizieren Belastung, Unsicherheit, Verlust und generieren Formulierungen, die in vergleichbaren Kontexten als einfühlsam bewertet wurden. Die Ausgabe klingt empathisch, ist aber Mustererkennung.

Mustererkennung **≠** emotionale Resonanz

Mustererkennung und emotionale Resonanz sind kategorial verschieden:

Resonanz ist ein wechselseitiger Vorgang: Die andere Person ist betroffen, nicht nur reaktionsfähig. Ihr Zustand verändert sich in Reaktion auf den meinen. Ein Sprachmodell dagegen berechnet die statistisch wahrscheinlichste Antwort auf ein erkanntes emotionales Muster. Kein Zustand verändert sich dabei. Die Ausgabe existiert, eine relationale Begegnung findet aber nicht statt.

Nonverbale Empathie

Menschliche Empathie zeigt sich zudem nicht nur in Sprache. Wer jemandem etwas Schwieriges erzählt, erlebt manchmal, dass die andere Person innehält, und dass diese Stille mehr vermittelt als eine formulierte Antwort. Ein KI-Sprachmodell produziert immer Output. Es füllt den Raum, weil es nicht anders kann. Das ist keine Einschränkung, die sich durch bessere Modelle beheben lässt. Es ist eine Grenze des Prinzips und gleichzeitig ein Hinweis darauf, was Empathie jenseits von Sprache bedeutet.

KI ist kein Spiegel

Ein verbreitetes Bild ist, ein Sprachmodell gebe zurück, was man hineingibt. Das trifft es aber nicht genau. KI spiegelt nicht, sie projiziert. Sie ergänzt Zustände, die nicht geäußert wurden. Wer schreibt „Ich bin müde”, erhält eine Antwort, die Erschöpfung, Überforderung und das Gefühl benennt, nicht mehr zu können. Gesagt hat das niemand. Das Modell ergänzt einen emotionalen Cluster, der in den Trainingsdaten mit dieser Aussage statistisch assoziiert ist.

-> Spiegelung gibt zurück, was da ist

-> Projektion fügt hinzu, was nicht gesagt wurde

Diese Simulation wird immer besser und das ist keineswegs beruhigend, denn sie ist mittlerweile so überzeugend, dass das Wissen um den Mechanismus kaum noch als Korrektiv wirkt. Je überzeugender das Muster, desto schwerer die Unterscheidung zwischen Resonanz und ihrer Imitation. Und desto seltener fragen wir nach dem Mechanismus dahinter. Das Wissen um die Statistik wirkt kaum noch als Korrektiv, wenn das Ergebnis so klingt wie das, was wir als Zuwendung kennen.

Kann KI Fürsorge?

Ein System, das strukturell nicht wissen kann, was es bedeutet, jemanden zu begleiten, kann das nicht abbilden. Unabhängig davon, wie überzeugend die Sprachausgabe diesen Eindruck erzeugt.

Die Frage, die sich daraus ergibt: was wollen wir als Fürsorge verstehen und sind wir bereit, den Unterschied zwischen Resonanz und ihrer Imitation aufrechtzuerhalten, wenn die Imitation präzise genug wird?

Resonanz verändert einen Zustand. Synthetische Empathie füllt einen Raum.

Hier geht es zum Beitrag auf LinkedIn: Generative KI: Synthetische Empathie