, , ,

Wir Wissen durch KI obsolet?

Ich hatte mal eine Vorgesetzte, die für jede meiner Einschätzungen eine Quelle gefordert hat. Ich konnte sie selten liefern, nicht weil mir das Wissen fehlte, sondern weil es sich nicht auf eine konkrete Quelle zurückführen ließ. Es hat sich über Jahre Berufserfahrung aufgebaut, aus Beobachtungen, Gesprächen und Kontexten.

Was bei Nutzung generativer KI Voraussetzung ist, kann bei menschlichem Wissen ein Hindernis sein: Der Quellennachweis. Was meine Vorgesetzte wollte, ist genau die Art von Wissen, das durch KI abrufbar ist. Aus Erfahrung aufgebautes Wissen dagegen lässt sich nicht prompten und oft nicht auf eine konkrete Quelle zurückführen.

Diese Unterscheidung steht im Zentrum einer These, die viel diskutiert wird:

Wissen wird durch KI obsolet.

Sie hat einen wahren Kern aber auch einen entscheidenden Denkfehler. Der wahre Kern:

Faktenwissen ist durch KI-Sprachmodelle weitgehend abrufbar.

LLMs leisten noch weit mehr als Faktenabruf. Durch Mustererkennung über riesige Textmengen erschließen sie nicht-offensichtliche Verbindungen zwischen Konzepten domänenübergreifend und in einem Umfang, der einem einzelnen menschlichen Experten schwerlich zugänglich ist.

Was LLMs dabei nicht leisten: die Unterscheidung zwischen einer plausiblen und einer wahren Synthese. Echte Wissensgenerierung erfordert empirische Überprüfung: Hypothesenbildung, Falsifizierung, experimentelle Validierung. Ein LLM kann den Weg dorthin beschreiben, aber nicht begehen.

Die entscheidende Unterscheidung liegt also nicht darin, ob Wissen obsolet wird, sondern welches Wissen.

Hier kommt der Fehlschluss: KI-Outputs beurteilen zu können setzt eigenes Wissen voraus. Einen falsch zitierten Standardfakt erkenne ich noch. Eine plausibel klingende Fehlverknüpfung über drei Domänen hinweg erfordert deutlich mehr eigenes Fundament, um sie einzuordnen. Die Fähigkeit zu nicht-offensichtlicher Synthese macht das Bewertungsproblem nicht kleiner, sondern größer.

Die Kompetenz, KI-generiertes Wissen zu bewerten, setzt daher genau das voraus, was KI angeblich ersetzt. Kein Basiswissen bedeutet kein Urteilsvermögen. Und kein Urteilsvermögen bedeutet unkritische Abhängigkeit.

Das ist kein Plädoyer für Wissen um seiner selbst willen. Es ist ein Argument gegen eine Vereinfachung, die zu einem konkreten Risiko wird.

Was sich verändert, ist die Architektur des Wissens, das Macht verleiht.

Faktenwissen war nie das Entscheidende. Was bleibt und an Bedeutung gewinnt, ist das, was sich nicht abrufen lässt. Der Philosoph Michael Polanyi hat dafür den Begriff des tacit knowledge geprägt: Wissen, das wir haben, ohne es vollständig explizieren zu können – das Gespür, das Urteil, das durch Praxis und Auseinandersetzung entsteht. Dieses Wissen lässt sich nicht prompten.

Wissen ist weiterhin Macht. Nicht als Faktenspeicher, sondern als Urteilskompetenz. Wer das versteht, nutzt KI anders: nicht als Wissensersatz, sondern als Werkzeug, das Urteilskompetenz voraussetzt – und ohne sie zum Risiko wird.

Hier geht es zum Beitrag auf LinkedIn: Wir Wissen durch KI obsolet?