KI und Empathie
, ,

Wollen wir wirklich über Empathie bei KI diskutieren?

Gleicht erlernte Empathie bei Autisten der „Empathie“ einer KI?
Hilft uns dieser Vergleich, die Definition von Empathie in Bezug auf KI zu differenzieren?

Immer wieder wird über Empathie im Zusammenhang mit KI diskutiert. Und immer wieder denke ich an die erlernte Empathie vieler Menschen im Autismus-Spektrum, eine bewusst aufgebaute, erlernte Fähigkeit.
Ein Vergleich, der meine Definition von Empathie herausfordert:

Kann man auch bei KI von erlernter (bzw. trainierter) Empathie sprechen?

Dazu folgende abgrenzende Überlegungen:

𝟏 | 𝐔𝐫𝐬𝐩𝐫𝐮𝐧𝐠 & 𝐌𝐨𝐭𝐢𝐯𝐚𝐭𝐢𝐨𝐧

👤 Menschen im Autismus-Spektrum starten oft mit einer sensorischen Reizflut und fehlender intuitiver Gefühlszuordnung.
Ihr Antrieb: der Wunsch nach Teilhabe.

🤖 KI beginnt mit einem Datenstrom ohne Innenleben.
Ihr Antrieb: Zielvorgaben von Entwicklern und Geschäftsmodelle.

Beide konstruieren also Empathie, doch nur eine Seite sehnt sich nach menschlicher Resonanz.

𝟐 | 𝐖𝐢𝐞 𝐞𝐧𝐭𝐬𝐭𝐞𝐡𝐭 𝐌𝐢𝐭𝐠𝐞𝐟ü𝐡𝐥?

👤 Autistische Strategie
Beobachten: Mimik, Gestik, Stimme.
Analysieren: „Stirn in Falten → wahrscheinlich Sorge.“
Reagieren: bewusst gewählte, oft sehr passende Antwort.

🤖 KI-Routine
Text, Bild, Ton in Vektoren übersetzen.
Wahrscheinlichkeit für „Sadness“, „Joy“ & Co. berechnen.
Response ausspielen.

Präzision beiderseits, aber doch mit deutlichen Unterschieden: nur das menschliche Gegenüber spürt Verantwortung für die Wirkung.

𝐀𝐥𝐬𝐨 𝐳𝐰𝐞𝐢 𝐤𝐨𝐧𝐬𝐭𝐫𝐮𝐤𝐭𝐢𝐯𝐞, 𝐚𝐛𝐞𝐫 𝐝𝐨𝐜𝐡 𝐮𝐧𝐠𝐥𝐞𝐢𝐜𝐡𝐞 𝐏𝐟𝐚𝐝𝐞:

-> Erlernte Empathie ist mühsam, doch zutiefst menschlich. Sie entsteht aus Bedürfnis und Verletzbarkeit und der Mensch empfindet Verantwortung für seine Reaktion.
-> KI-Empathie ist Statistik ohne Innenwelt. Nützlich, solange wir sie klar als Simulation kennzeichnen.

Suche ich Kontakt, brauche ich Gegenseitigkeit und Offenheit.
Suche ich Effizienz, genügt mir die KI-Maske. Die Kunst liegt darin, die beiden Konzepte nicht zu verwechseln.

Sofern ich Empathie erwarte im Sinne von verantwortlicher Reaktion und Resonanz kann die KI nicht als empathisch bezeichnet werden.

𝐅ü𝐫 𝐦𝐢𝐜𝐡 𝐛𝐥𝐞𝐢𝐛𝐭 𝐞𝐬 𝐞𝐢𝐧𝐝𝐞𝐮𝐭𝐢𝐠:
Solange wir der KI „Empathie“ zuschreiben, ohne die Begriffe zu differenzieren, drehen wir uns im Kreis.

Was wir brauchen, ist eine differenzierte Begrifflichkeit, nicht die Wiederholung derselben Diskussion mit immer denselben Missverständnissen weil wir versuchen, menschliche Konzepte auf Maschinen zu übertragen.


❓ Ich freue mich auf deine Sicht dazu.


Disclaimer
Die Beschreibungen zur erlernten Empathie von Menschen im Autismus-Spektrum in diesem Beitrag sind bewusst stark vereinfacht und können das breite Spektrum autistischer Erfahrungen nicht vollständig abbilden. Sie dienen nur als Gedankenanstöße für den Vergleich mit KI-Systemen.

Hier geht´s zu meinem Beitrag auf LinkedIn