KI ist kein Fachexperte
Generative KI macht es möglich, zu jedem Thema einen professionell klingenden Fachartikel zu produzieren. Das verändert aber nicht, wer die Verantwortung für den Inhalt trägt.
Wer einen Fachartikel veröffentlicht, unterschreibt damit stillschweigend einen Vertrag mit seinen Lesern: Ich stehe für diesen Inhalt. Ob dabei KI genutzt wurde oder nicht macht keinen Unterschied, die Verantwortung bleibt beim Verfasser.
Das ist keine rein moralische Frage, sondern eine epistemische. Fachwissen bedeutet nicht nur, dass jemand Texte zu einem Thema produzieren kann. Es bedeutet, dass er beurteilen kann, ob das Ergebnis der KI nur plausibel ist oder einer fachlichen Überprüfung standhält. Und ob es einen Mehrwert bietet, denn das sollte ein fachlicher Beitrag leisten.
Hier entsteht ein Problem, das in der KI-Nutzung oft unterschätzt wird.
-> Die Delegation der Kompetenz
„Schreibe einen Fachartikel über Lieferkettenrisiken im Mittelstand.” Der Prompt ist gesetzt, das Ergebnis kommt nach Sekunden, klingt professionell, ist gut strukturiert, die KI zitiert sinnvoll wirkende Zusammenhänge. Was fehlt: eine kritische Instanz, die das Ergebnis tatsächlich prüft.
Das setzt Fachkompetenz voraus. Wer sie nicht besitzt, kann nicht beurteilen, ob ein Sprachmodell halluziniert, ob es veraltete Daten verwendet, ob es vereinfacht wo Differenzierung nötig wäre, ob es durch Trainingsverzerrungen systematisch in eine Richtung zieht (Bias).
Die Delegation des Schreibens ist kein Problem. Die Delegation des Urteilsvermögens schon.
-> Was Sprachmodelle nicht leisten
Ein LLM optimiert auf sprachliche Plausibilität. Ein Satz, der gut klingt und grammatikalisch vollständig ist, hat gute Chancen, im Output zu erscheinen, unabhängig davon, ob er richtig ist oder Mehrwert liefert. Denn KI-generierte Inhalte können plausibel klingen und trotzdem falsch liegen. Gerade bei komplexen Fachthemen, wo Quellen dünn, Zusammenhänge mehrdeutig oder Datensätze unvollständig sind, ist das Fehlerrisiko erhöht.
Wer da nicht selbst bewerten kann, merkt es nicht.
-> Expertise als Voraussetzung, nicht als Ergebnis
Die Logik „Ich nutze KI, um wie ein Experte zu wirken” dreht die Kausalität um. Expertise entsteht nicht durch die Nutzung eines Werkzeugs wie einem LLM, das gut klingende Texte produziert. Sie entsteht durch Auseinandersetzung, Fehler, Korrektur, vertiefte Beschäftigung mit einem Thema.
KI kann Expertinnen und Experten gut unterstützen: beim Strukturieren, beim Formulieren, beim Zusammenführen von Material. Was sie nicht kann: das Urteilsvermögen ersetzen, das nötig ist, um den Output zu validieren.
Wer diesen Unterschied nicht kennt oder ignoriert, trägt trotzdem die Verantwortung für das, was veröffentlicht wird. Gegenüber Menschen, die auf der Suche nach verlässlichen Einschätzungen sind.
Das ist keine Frage der KI-Nutzung, sondern der Integrität im Umgang mit Öffentlichkeit.
KI kann jeden zum Autor machen. Zum Experten nicht.
Hier geht es zum Beitrag auf LinkedIn: KI ist kein Fachexperte



