Ich hatte mal eine Vorgesetzte, die für jede meiner Einschätzungen eine Quelle gefordert hat. Ich konnte sie selten liefern, nicht weil mir das Wissen fehlte, sondern weil es sich nicht auf eine konkrete Quelle zurückführen ließ. Es hat sich über Jahre Berufserfahrung aufgebaut, aus Beobachtungen, Gesprächen und Kontexten.

Was bei Nutzung generativer KI Voraussetzung ist, kann bei menschlichem Wissen ein Hindernis sein: Der Quellennachweis. Was meine Vorgesetzte wollte, ist genau die Art von Wissen, das durch KI abrufbar ist. Aus Erfahrung aufgebautes Wissen dagegen lässt sich nicht prompten und oft nicht auf eine konkrete Quelle zurückführen.

Diese Unterscheidung steht im Zentrum einer These, die viel diskutiert wird:

Wissen wird durch KI obsolet.

Sie hat einen wahren Kern aber auch einen entscheidenden Denkfehler. Der wahre Kern:

Faktenwissen ist durch KI-Sprachmodelle weitgehend abrufbar.

LLMs leisten noch weit mehr als Faktenabruf. Durch Mustererkennung über riesige Textmengen erschließen sie nicht-offensichtliche Verbindungen zwischen Konzepten domänenübergreifend und in einem Umfang, der einem einzelnen menschlichen Experten schwerlich zugänglich ist.

Was LLMs dabei nicht leisten: die Unterscheidung zwischen einer plausiblen und einer wahren Synthese. Echte Wissensgenerierung erfordert empirische Überprüfung: Hypothesenbildung, Falsifizierung, experimentelle Validierung. Ein LLM kann den Weg dorthin beschreiben, aber nicht begehen.

Die entscheidende Unterscheidung liegt also nicht darin, ob Wissen obsolet wird, sondern welches Wissen.

Hier kommt der Fehlschluss: KI-Outputs beurteilen zu können setzt eigenes Wissen voraus. Einen falsch zitierten Standardfakt erkenne ich noch. Eine plausibel klingende Fehlverknüpfung über drei Domänen hinweg erfordert deutlich mehr eigenes Fundament, um sie einzuordnen. Die Fähigkeit zu nicht-offensichtlicher Synthese macht das Bewertungsproblem nicht kleiner, sondern größer.

Die Kompetenz, KI-generiertes Wissen zu bewerten, setzt daher genau das voraus, was KI angeblich ersetzt. Kein Basiswissen bedeutet kein Urteilsvermögen. Und kein Urteilsvermögen bedeutet unkritische Abhängigkeit.

Das ist kein Plädoyer für Wissen um seiner selbst willen. Es ist ein Argument gegen eine Vereinfachung, die zu einem konkreten Risiko wird.

Was sich verändert, ist die Architektur des Wissens, das Macht verleiht.

Faktenwissen war nie das Entscheidende. Was bleibt und an Bedeutung gewinnt, ist das, was sich nicht abrufen lässt. Der Philosoph Michael Polanyi hat dafür den Begriff des tacit knowledge geprägt: Wissen, das wir haben, ohne es vollständig explizieren zu können – das Gespür, das Urteil, das durch Praxis und Auseinandersetzung entsteht. Dieses Wissen lässt sich nicht prompten.

Wissen ist weiterhin Macht. Nicht als Faktenspeicher, sondern als Urteilskompetenz. Wer das versteht, nutzt KI anders: nicht als Wissensersatz, sondern als Werkzeug, das Urteilskompetenz voraussetzt – und ohne sie zum Risiko wird.

Hier geht es zum Beitrag auf LinkedIn: Wir Wissen durch KI obsolet?

Bias aus generativer KI eliminieren zu wollen, ist ein Irrweg.

Nicht weil Bias akzeptabel wäre. Sondern weil jede Korrektur das Problem verschiebt, nicht löst. Weniger westlicher Bias bedeutet nicht mehr universelle Ethik. Es bedeutet: andere Werte, andere Probleme. Neutrale KI ist technisch, philosophisch und praktisch nicht realisierbar.

Die entscheidende Frage lautet deshalb nicht:

Wie wird KI neutral?

Denn Neutralität ist keine Systemeigenschaft, sondern eine Designentscheidung, die immer zugunsten bestimmter Perspektiven ausfällt.

Mein aktueller Fachartikel für den Springer Fachverlag untersucht diese Zusammenhänge und gibt konkrete Handlungsempfehlungen: Wirksamer Umgang mit Bias erfordert Transparenz, kontextbezogene Evaluationsstrategien und KI-Governance.

Hier geht es zum Artikel: https://shorturl.at/0LQp7

Hier geht es zum Beitrag auf LinkedIn: Bias in KI: Die Illusion der neutralen KI

Dein persönlicher KI Mitarbeiter ganz einfach eingerichtet:

Claude Cowork ist ein Desktop-Agent, der direkt auf deinem Rechner arbeitet: in deinen lokalen Ordnern und Dateien.

Statt dir nur Textantworten und Artefakte im Browser zu geben, kann Claude in Cowork:

→ mehrstufige Aufgaben selbst planen und ausführen

→ Dateien lesen, bearbeiten, erstellen, umbenennen, verschieben

→ deine Apps steuern

Richtig konfiguriert nimmt es richtig viel Arbeit ab, wie ein echter (sehr zuverlässiger) Mitarbeiter. Ich zeige

Schritt-für-Schritt wie du Claude Cowork einrichtest

und nutzt, ohne Vorwissen.

Auch hier gilt: Es ist wichtig, das System zu verstehen, um es so zu nutzen, dass es einen Mehrwert bringt. Das ist die Lücke, die viele Erklärungen zu Cowork lassen: Sie zeigen die Oberfläche, nicht die Logik dahinter.

Das Carousel ist eine

Schritt-für-Schritt-Einrichtung für Einsteiger

als funktionsfähige Konfiguration. Inklusive

✓ Prompt, mit dem Claude die wichtigen globalen Anweisungen selbst erarbeitet

✓ konkretes Anwendungsbeispiel zum direkten Ausprobieren.

Wer sich bisher nicht an Claude Cowork rangetraut hat: Das hier ist der fehlende Schubser.

Und wer es noch detaillierter möchte bekommt in meiner aktuellen Newsletter-Ausgabe eine Langversion der Anleitung mit noch mehr Infos und Details: https://shorturl.at/qzAUX

Hier geht es zum Beitrag auf LinkedIn: Anleitung Claude Cowork

So solltest du KI NICHT nutzen…

Manchmal ist Nicht-Nutzen die bessere Entscheidung. Das klingt vielleicht seltsam aus dem Mund einer KI-Trainerin. Aber auch das gehört zu KI-Kompetenz: Erkennen, wann KI Einsatz überhaupt sinnvoll ist und wann nicht. Denn KI-Kompetenz ist viel mehr als nur Prompting-Kompetenz.

Der Reflex ist inzwischen bei vielen schon automatisch:

Bei jeder Aufgabe die auftaucht wird als erstes die KI befragt.

Möglichst nicht nachdenken, denn das verbraucht unnötige Kalorien, die KI kann das sicher schnell, bequem und effizient ;).

Das Problem dabei ist aber, dass oft eine entscheidende Frage übergangen wird: Nicht „Wie prompt ich das richtig?” Sondern „Ist KI das richtige Werkzeug für diese Aufgabe? Kann ich das Ergebnis fachlich beurteilen und übernehme ich dafür die Verantwortung?“

Wenn ja: Nutze KI. Zum Beispiel für wiederkehrende Aufgaben, erste Entwürfe, komplexe Themen als Einstieg, als Sparringspartner.

Wenn nein: Für alles, wofür Fachkompetenz, Verantwortung oder eigenständiges Denken Voraussetzung sind, gilt: erst die Grundlage (und selbst nachdenken), dann die KI. Und wenn andere Menschen von der Entscheidung betroffen sind: KI kennt den Menschen dahinter nicht. Man kann auch mal eine Aufgabe ohne KI bearbeiten.

Im Carousel findest du einige

Anregungen zur Entscheidung über deinen KI Einsatz:

wann JA, wann NEIN. Es zeigt, wann KI sinnvoll eingesetzt werden kann und wann nicht.

Hier geht es zum Beitrag auf LinkedIn: KI nutzen? So nicht!

Erkennst du KI-Texte?

Es gibt unzählige Listen an “Erkennungsmerkmalen” und jeder, der bestimmte Wörter nutzt gerät unter Generalverdacht. Und dann gibt es noch Software, die erkennen soll, ob ein Text mit KI erstellt wurde.

Wie gut sind KI-Detektoren?

Jede fünfte Entscheidung ist falsch

KI-Detektionstools funktionieren nicht zuverlässig genug, um als Urteilsgrundlage zu dienen! Das ist kein Meinungsurteil, sondern ein belegter Befund. Trotzdem entsteht damit gerade ein florierendes Geschäftsmodell.

Kein getestetes Tool kam in unabhängigen Studien über 80 % Genauigkeit. Das klingt vertretbar, bis man bedenkt, was das im Umkehrschluss bedeutet: Jede fünfte Entscheidung ist falsch! Bei Systemen, die eingesetzt werden, um Texte – und damit die Leistung eines Menschen – zu bewerten, ist das keine tolerierbare Fehlerquote! Das Prinzip der Unschuldsvermutung ist hier klar außer Kraft gesetzt, denn 80% ist kein Beweis.

So funktionieren KI Detektoren

Das Messprinzip dahinter: Die Tools messen, wie vorhersehbar Wortfolgen sind. Wer fachlich präzise schreibt, wer bestimmten Textkonventionen folgt, produziert statistisch “verdächtige” Texte. Und das nicht weil er KI nutzt, sondern weil sein Schreibstil bestimmten Mustern entspricht, die der Algorithmus mit Maschinenoutput assoziiert. Das Tool kann Kompetenz nicht sicher von Automatisierung unterscheiden.

Warum wird das trotzdem eingesetzt?

Was mich an dieser Debatte beschäftigt, ist weniger die technische Schwäche der Tools, denn die ist schließlich bekannt. Es ist die (fehlende) Logik, mit der sie trotzdem eingesetzt werden.

🤔Und die fehlende Erkenntnis, dass das Nutzen von KI Tools nicht zwingend eine schlechte (inhaltliche) Qualität der Texte bedeutet.

Ich sehe nach wie vor eine große Bereitschaft, dem algorithmischen Ergebnis mehr zu vertrauen als dem eigenen Urteil. KI-Detektionstools bedienen genau diesen Reflex. Sie verwandeln Misstrauen in eine Prozentzahl und nennen das Analyse.

Die Lösung? Gibt es natürlich auch als Tool

Gleichzeitig wächst die Gegenbewegung: Tools, die Texte gezielt so umformulieren, dass sie “menschlicher” wirken. Die Detektionsindustrie erzeugt damit genau das Verhalten, gegen das sie angeblich vorgeht. Ein klassischer Rüstungswettlauf – nur dass hier nicht nur Technologie gegen Technologie antritt, sondern Menschen zwischen den Fronten stehen.

Ein Wahrscheinlichkeitswert ist keine Entscheidung und wer ihn als eine behandelt, delegiert Urteilsvermögen an ein System, das nicht beurteilen kann, was es vorgibt zu messen.

Hier geht es zum Beitrag auf LinkedIn: KI Schreibstil erkennen

Ich muss (!) meine Begeisterung für Claude Skills mit euch teilen. 😉

Wer mich kennt, weiß, dass ich niemand bin, der jedem Feature hinterher rennt.

Custom GPTs habe ich, Projektanweisungen auch. Stilreferenzen sowieso. Das hat auch wunderbar funktioniert.

Claude Skills befördert das alles für mich auf ein ganz anderes Niveau. Claude wird zu meinem persönlichen Assistenten und ich brauche keinen Agenten dafür.

💡Ein Skill ist eine Datei, die Claude anweist, eine konkrete Aufgabe selbständig zu erledigen. Nicht nur unterstützen, sondern erledigen. Mit jedem Skill, den du ihm gibst, kann Claude mehr. Er wird zu deinem persönlichen Assistenten, der dein Corporate Design kennt und deine Workflows umsetzt, ohne dass du jedes Mal erklären musst, was du brauchst und wie du es umgesetzt haben möchtest.

Ich sage “Erstelle ein Powepoint aus den Informationen von Notion Seite XY” und bekomme ein fertiges PPTX in meinem CI, bei dem jeder Abstand und jede Schriftgröße stimmt. Ich sage “Mach daraus ein Carousel” und bekomme ein PDF in einem anderen von mir festgelegten Design für meine LinkedIn Carousels.

Mit jedem neuen Skill wächst das Repertoire. Claude erstellt mir Rechnungen, Angebote, Schulungsunterlagen, Schulungs-Zertifikate, Präsentationen, u.v.m.. Alles nach den jeweils für diese Anwendung festgelegten Vorgaben.

Wenn du das auch umsetzen möchtest, dich aber alleine nicht rantraust: Am 23. April mache ich einen Kompakt-Workshop. Ich zeige live, wie man einen Skill erstellt und du kannst direkt mitmachen: Wir erstellen gemeinsam einen Skill, der PowerPoint-Präsentationen in deinem individuellen Design generiert. Du gehst mit einem funktionierenden, installierten Skill aus dem Workshop.

📅Hier geht´s zur Anmeldung:

https://lnkd.in/d3Vw4i6b

Keine Vorkenntnisse nötig. Alles passiert im Chat. Du benötigst nur Claude, möglichst in einer Bezahlvariante, weil das Nutzungslimit bei Free-Accounts möglicherweise nicht ausreicht, um einen kompletten Skill ohne Unterbrechung zu erstellen.

Hier geht es zum Beitrag auf LinkedIn: Claude Skills

KI halluziniert. Auch die fortschrittlichsten Sprachmodelle wie Claude oder ChatGPT.

Aber es gibt wirksame Strategien, Halluzinationen zu reduzieren.

Anthropic hat 7 konkrete Strategien veröffentlicht, mit denen sich Halluzinationen nachweislich reduzieren lassen. Es sind praxistaugliche Prompting-Techniken vom Profi, die du sofort anwenden kannst.

💡Ich habe die Empfehlungen für dich so aufbereitet, dass sie ganz einfach anzuwenden sind, jede mit einem konkreten Prompt zum direkten Umsetzen.

Die Kurzversion:

→ Gib der KI die Erlaubnis, „Ich weiß es nicht” zu sagen

→ Lass konkrete Zitate extrahieren, bevor du Fragen beantworten lässt

→ Nutze Chain-of-Thought, um fehlerhafte Logik sichtbar zu machen

→ Vergleiche mehrere Outputs auf Konsistenz

→ Verfeinere iterativ und lass das LLM sich selbst korrigieren

→ Schränke den Zugriff auf externes Wissen ein

→ Fordere Quellenangaben für jede Behauptung ein

Diese Techniken können Halluzinationen nicht vollständig verhindern. Aber sie machen den Umgang damit systematisch und überprüfbar. Das ist ein wichtiger Schritt zu kontrollierter Nutzung generativer KI.

👇 Swipe durch das Carousel und lerne alle 7 Strategien im Detail. Ich habe für jede der Strategien konkrete Prompts zum direkten Verwenden für dich erstellt.

Hier geht es zum Beitrag auf LinkedIn: KI – Halluzinationen reduzieren

Generative KI macht es möglich, zu jedem Thema einen professionell klingenden Fachartikel zu produzieren. Das verändert aber nicht, wer die Verantwortung für den Inhalt trägt.

Wer einen Fachartikel veröffentlicht, unterschreibt damit stillschweigend einen Vertrag mit seinen Lesern: Ich stehe für diesen Inhalt. Ob dabei KI genutzt wurde oder nicht macht keinen Unterschied, die Verantwortung bleibt beim Verfasser.

Das ist keine rein moralische Frage, sondern eine epistemische. Fachwissen bedeutet nicht nur, dass jemand Texte zu einem Thema produzieren kann. Es bedeutet, dass er beurteilen kann, ob das Ergebnis der KI nur plausibel ist oder einer fachlichen Überprüfung standhält. Und ob es einen Mehrwert bietet, denn das sollte ein fachlicher Beitrag leisten.

Hier entsteht ein Problem, das in der KI-Nutzung oft unterschätzt wird.

-> Die Delegation der Kompetenz

„Schreibe einen Fachartikel über Lieferkettenrisiken im Mittelstand.” Der Prompt ist gesetzt, das Ergebnis kommt nach Sekunden, klingt professionell, ist gut strukturiert, die KI zitiert sinnvoll wirkende Zusammenhänge. Was fehlt: eine kritische Instanz, die das Ergebnis tatsächlich prüft.

Das setzt Fachkompetenz voraus. Wer sie nicht besitzt, kann nicht beurteilen, ob ein Sprachmodell halluziniert, ob es veraltete Daten verwendet, ob es vereinfacht wo Differenzierung nötig wäre, ob es durch Trainingsverzerrungen systematisch in eine Richtung zieht (Bias).

Die Delegation des Schreibens ist kein Problem. Die Delegation des Urteilsvermögens schon.

-> Was Sprachmodelle nicht leisten

Ein LLM optimiert auf sprachliche Plausibilität. Ein Satz, der gut klingt und grammatikalisch vollständig ist, hat gute Chancen, im Output zu erscheinen, unabhängig davon, ob er richtig ist oder Mehrwert liefert. Denn KI-generierte Inhalte können plausibel klingen und trotzdem falsch liegen. Gerade bei komplexen Fachthemen, wo Quellen dünn, Zusammenhänge mehrdeutig oder Datensätze unvollständig sind, ist das Fehlerrisiko erhöht.

Wer da nicht selbst bewerten kann, merkt es nicht.

-> Expertise als Voraussetzung, nicht als Ergebnis

Die Logik „Ich nutze KI, um wie ein Experte zu wirken” dreht die Kausalität um. Expertise entsteht nicht durch die Nutzung eines Werkzeugs wie einem LLM, das gut klingende Texte produziert. Sie entsteht durch Auseinandersetzung, Fehler, Korrektur, vertiefte Beschäftigung mit einem Thema.

KI kann Expertinnen und Experten gut unterstützen: beim Strukturieren, beim Formulieren, beim Zusammenführen von Material. Was sie nicht kann: das Urteilsvermögen ersetzen, das nötig ist, um den Output zu validieren.

Wer diesen Unterschied nicht kennt oder ignoriert, trägt trotzdem die Verantwortung für das, was veröffentlicht wird. Gegenüber Menschen, die auf der Suche nach verlässlichen Einschätzungen sind.

Das ist keine Frage der KI-Nutzung, sondern der Integrität im Umgang mit Öffentlichkeit.

KI kann jeden zum Autor machen. Zum Experten nicht.

Hier geht es zum Beitrag auf LinkedIn: KI ist kein Fachexperte

Du brauchst keinen Agenten mehr um zu automatisieren!

Viele KI-Agenten werden gerade durch die Einführung von Skills überflüssig: Skills sind für einige Einsatzzwecke nicht nur flexibler, sondern um ein Vielfaches einfacher einzurichten.

Was ist ein Skill?

Ein Skill ist eine persönliche Arbeitsanweisung für dein LLM. Es enthält alle Instruktionen, die die KI braucht, um eine Aufgabe exakt so auszuführen, wie du es festlegst: Dokumentenformat, Arbeitsschritte, Kontext, Schreibstil, Qualitätsrichtlinien, u.v.m.

Kein zusätzliches Tool, keine Programmierkenntnisse, keine Einrichtungshürde: Den Skill kannst du direkt im Chat erstellen.

Dein persönlicher prall gefüllter Werkzeugkoffer

Stell dir ein Netzwerk spezialisierter KI-Assistenten vor: Jeder Skill übernimmt einen klar definierten Aufgabenbereich und das LLM greift selbstständig auf das richtige Werkzeug zu, sobald es es braucht. Kein ausführliches Briefing im Prompt. Nie wieder Verlust des eigenen Stils an “typisch KI”.

Was Skills konkret leisten:

→ Wiederkehrende Anforderungen als jederzeit abrufbare, flexible Werkzeuge

→ Präzise Arbeitsanweisungen inkl. Ausgabeformat und Qualitätsrichtlinien

→ Zeitersparnis und Professionalisierung der Ergebnisse

→ Einfache Weitergabe: die Skill-Datei lässt sich teilen und in mehreren LLMs nutzen.

Im Unternehmen haben Skills ihren größten Hebel

Alle Mitarbeitenden nutzen dieselben Skills, passen sie optional an den eigenen Arbeitsbereich an und sorgen so für konsistente Prozesse und Ergebnisse. Ein konkretes Beispiel zeige ich euch im Carousel unten: PDFs, die immer genau im festgelegten Layout und Formatierungslogik generiert werden.

👇 Was das Carousel zeigt

Schritt für Schritt: von der Einrichtung eines Skills über Anpassungen bis zur Aktivierung im Chat. Das Prinzip lässt sich auf viele Aufgaben übertragen: von Schreibstilen bis zu komplexen Dokumentenlogiken.

Die Kompetenz verschiebt sich – mal wieder

Generative KI wird genau in dem Maß produktiver, in dem sie sich an die eigene Arbeitsweise anpasst. Skills sind dafür ein großer Hebel.

Die technische Einrichtung eines Agenten ist nicht mehr die Hürde. Die Hürde ist die saubere Beschreibung der eigenen Prozesse. So präzise, dass die KI sie optimal ausführen kann. Das ist eine wichtige Kompetenz im Umgang mit LLMs.

Die Fähigkeit, einen Skill per Chat erstellen zu lassen, ist übrigens selbst ein vorinstallierter Skill in Claude.

Anmerkung für alle, die mit ChatGPT arbeiten: Skills sind für ChatGPT bereits angekündigt, stehen aber aktuell – zumindest im Plus-Abo – noch nicht zur Verfügung. Meine Erfahrungen hier beziehen sich daher auf Claude Skills, wo die Funktion bereits vollständig nutzbar ist.

🔔 Ich biete in Kürze einen kompakten Workshop zur Erstellung von Skills an. Gib mir gerne in den Kommentaren Bescheid, dann melde ich mich, sobald der Termin steht.

Hier geht es zum Beitrag auf LinkedIn: Automatisierung mit KI – Skills

Claude kann jetzt Infografiken erstellen.

Interaktive Grafiken direkt im Claude Chat

Direkt im Chat. Keine Bildgenerierung, kein Plugin, kein Umweg über externe Bildgenerierung. Sondern: interaktive Visualisierungen im Chat.

Ja: Interaktiv, das ist , was mich am meisten begeistert.

Was heißt das konkret?

Du fragst Claude nach einem komplexen Zusammenhang und statt einer komplizierten Erklärung bekommst du ein Diagramm. Einen interaktiven Zeitstrahl. Eine Grafik, die du anklicken, filtern und weiterdenken kannst. Mitten im Gespräch.

Ich habe das Feature eben direkt getestet.

Im angehängten Video siehst du das Ergebnis: eine interaktive Infografik zu KI-Technologien im Hype Cycle. Mit interaktiven Elementen, Einordnung der Phasen gebaut von Claude, ohne eine Zeile Code von meiner Seite. In 2 Minuten.

Warum mich das begeistert obwohl ich normalerweise skeptisch gegenüber Feature-Hype bin:

→ Nicht Text rein, Text raus. Sondern: Frage rein, Verständnis raus, in dem Format, das am besten passt.

→Die Visualisierungen entstehen inline im Chat: dort, wo du gerade denkst. Du kannst sie speichern, weiterentwickeln oder als Ausgangspunkt für ein Artefakt nutzen.

→ Das ist kein Spielzeug, das ist Infrastruktur.

Visualisierungen in KI-Chats sind kein Alleinstellungsmerkmal mehr, Gemini kann das auch. Der Unterschied liegt woanders: in der Qualität der Umsetzung, in der Interaktivität und vor allem darin, wie nahtlos sich das ins eigene Arbeiten einfügt.

Claude baut diese Grafiken nicht als Beiwerk. Sie entstehen aus dem Gesprächskontext, reagieren auf Rückfragen, lassen sich anpassen. Das ist kein Feature. Das ist ein anderer Workflow.

Hier geht es zum Beitrag auf LinkedIn: Interaktife Grafiken mit Claude