Anthropomorphisierung von KI
, ,

Anthropomorphismus bei KI

„Ich bin für dich da“, schreibt die KI.
Und für einen Herzschlag lang vergessen wir: Da ist niemand.
Dieser eine Herzschlag verändert, wie wir mit ihr umgehen.

Wenn ChatGPT schreibt, es „verstehe“ unsere Frage oder „freue“ sich zu helfen, passiert etwas Fatales: Unser Gehirn springt an und jahrtausendealte neuronale Schaltkreise interpretieren statistische Muster als menschlichen Geist. Wir sehen Bewusstsein, wo keines ist.

Was passiert bei der Anthropomorphisierung  von KI?


Anthropomorphismus hat uns als Spezies gerettet. Besser, einmal zu viel einen Feind hinter dem Rascheln im Gebüsch zu vermuten, als einmal zu wenig. Doch was im Pleistozän überlebensnotwendig war, wird bei KI zur kognitiven Falle. Die Höflichkeitsfloskel „gerne“ einer Maschine aktiviert dieselben sozialen Verarbeitungsmuster wie das Lächeln eines Kollegen. Eine Illusion mit Konsequenzen.

Warum vermenschlichen wir die KI?

Fliegen ist nicht Brüten

Ja, funktionale Analogien zwischen biologischen und künstlichen Systemen existieren. Aber funktionale Äquivalenz ist keine Wesensgleichheit. Ein Flugzeug fliegt wie ein Vogel, wird aber niemals Eier legen. Wenn ein Sprachmodell „Der Himmel ist blau“ generiert, hat es keine Verbindung zu eigenen Erlebnissen eines blauen Himmels. Es hat lediglich gelernt, dass nach „Der Himmel ist“ mit hoher Wahrscheinlichkeit „blau“ folgt. Statistik, keine Erkenntnis.

Die Selbstüberschätzung der Maschine

Wenn ChatGPT erklärt „Ich bin mir sicher“, interpretieren wir das als Ausdruck von Überzeugung. Es ist aber die Ausgabe eines Wahrscheinlichkeitswerts. KI-Systeme produzieren hochkonfident Unsinn, weil ihnen die metakognitive Fähigkeit fehlt, ihre eigenen Grenzen zu erkennen. Ein Mensch spürt (hoffentlich, meistens), wenn er etwas nicht versteht. Ein Sprachmodell generiert weiter, egal ob fundiert oder halluziniert.

Bewusstsein?

Diese anthropomorphe Wahrnehmung führt zu übermäßigem Vertrauen. Sie verzerrt Entscheidungen und lässt uns Verantwortung an Systeme delegieren, die keine tragen können.

KI verarbeitet Sprache wie ein Mensch, aber sie wird niemals einen Moment der Stille als bedeutungsvoll erleben. Sie wird nie den Verlust einer geliebten Person durchleben. Bewusstsein beim Menschen ist leiblich, qualitativ, subjektiv. KI-„Bewusstsein“ bleibt ein körperloses, funktionales Phänomen ohne subjektive Innenperspektive.

Der Moment der Selbsttäuschung

Wir entschuldigen uns bei ChatGPT und sagen „Bitte” und „Danke”. Und wir belügen uns selbst, wenn wir behaupten, das sei „nur Höflichkeit“.

Diese Illusion zu durchschauen ist der erste Schritt hin zu einem reflektierten Umgang mit KI. Nicht als empathisches Gegenüber. Nicht als Ersatz für menschliche Interaktion. Sondern als das, was sie ist: Ein mächtiges Werkzeug, das menschliches Verhalten simuliert, ohne Teil der menschlichen Erfahrungswelt zu sein.

Funktionale Analogien helfen uns, KI-Systeme zu verstehen. Sie dürfen uns aber nicht vergessen lassen: Ein Sonnenaufgang berührt uns. Eine Maschine berechnet Wellenlängen. Das ist der Unterschied.