, ,

Wir prompten uns unseren Bias selbst

„Erkläre mir, warum ich recht habe.”

Das ist kein Prompt.

Das ist die Grundeinstellung, mit der viele Menschen generative KI nutzen. Sie merken es nur nicht.

Confirmation Bias ist die psychologische Neigung, nur wahrzunehmen, was die eigene Weltsicht bestätigt. Das ist nichts Neues, alle haben ihre eigene Wahrheit.

Personalisierung = Confirmation Bias als Geschäftsmodell

Was als menschlicher Denkfehler begann, wurde mit Suchmaschinen zur Produktstrategie: Algorithmen liefern Ergebnisse passend zur Filterblase und nennen es Personalisierung. Und das wiederum passt perfekt zur Theorie der Wissensresistenz: der Neigung zu glauben, was ins eigene Weltbild passt, statt zu glauben, wofür es gute Gründe gibt.

Generative KI macht aus diesem Problem eine Kunstform.

LLMs halluzinieren nicht nur einzelne Fakten, sie halluzinieren ganze Wirklichkeiten. Aber sie tun es auf eine Weise, die gefährlicher ist als jeder Suchalgorithmus zuvor: Sie sprechen in ganzen Sätzen, argumentieren und klingen sehr überzeugend. Sie liefern die fertige Begründung gleich mit.

Der Mechanismus ist simpel: Wenn ich ChatGPT (oder ein anderes LLM) frage „Belege mir, dass meine These X stimmt”, dann liefern sie genau das. Nicht aus Böswilligkeit. Sondern weil sie auf Kohärenz trainiert sind, nicht auf Wahrheit. Sie generieren plausible Antworten auf Basis statistischer Muster.

Wir prompten uns damit unseren Bias selbst.

Formulierungen wie „Erkläre mir, warum…”, „Bestätige, dass…” oder „Zeige mir Beispiele dafür, dass…” sind dafür prädestiniert. Die KI wird zur perfekten Bestätigungsmaschine. Sie liefert nicht nur Links zu Quellen, die unsere Überzeugung stützen, sie formuliert die Argumentation gleich mit. Flüssig. Scheinbar objektiv. Ohne Widerspruch.

Die Frage ist jetzt: Welche Wirklichkeit konstruiert die KI für mich, basierend auf dem, was ich bereits glaube?

Das Problem liegt nämlich nicht in der Technologie. Es liegt in unserem Umgang mit ihr. In der Illusion, dass eine gut formulierte Antwort auch eine wahre Antwort ist.

Was dagegen hilft?

Prompts, die Widerstand einbauen und bewusst gegen die eigene Überzeugung arbeiten:

„Welche Argumente sprechen gegen meine These?”

„Wo sind die Schwachstellen in dieser Annahme?”

„Welche Perspektive übersehe ich hier systematisch?”

Die eigene Brille abzusetzen bedeutet nicht, keine Haltung zu haben. Sondern zu erkennen, dass wir eine tragen. Und dass KI sie verstärkt – es sei denn, wir fragen anders.

Der Bestätigungsfehler ist menschlich. Ihn zur Standardeinstellung unserer digitalen Werkzeuge zu machen, ist eine Entscheidung. Denn was bleibt von Erkenntnis übrig, wenn jede Frage bereits die gewünschte Antwort enthält?

Die Lösung liegt darin, Prompts zu formulieren, die unbequem sind: nicht für die KI, sondern für uns selbst.

Hier geht es zum Beitrag auf LinkedIn: Wir prompten uns unseren Bias selbst