ChatGPT im Wahrheitsmodus:

Wenn du Halluzinationen aus der KI eliminierst, verbannst du auch die Kreativität.


Wir behandeln die sogenannten Halluzinationen von generativer KI, als wären sie ein Fehler im System: ein Bug, den die Entwickler in Silicon Valley nur noch nicht behoben haben. Doch wir dürfen das Phänomen der Halluzinationen nicht isoliert betrachten.

Das technische Verfahren, das eine KI halluzinieren lässt, ist nämlich dasselbe, das sie kreativ macht.


Was passiert technisch, wenn KI “kreativ” ist?


Um das zu verstehen, müssen wir uns kurz vor Augen führen, dass LLMs wie ChatGPT, Gemini oder Claude keine Datenbanken des Wissens sind, sondern Wahrscheinlichkeiten berechnen. Sie berechnen das jeweils nächste Wort in einer Sequenz. Würde eine KI immer nur den statistisch wahrscheinlichsten Pfad wählen, wären ihre Antworten zwar faktisch sicherer, aber auch unfassbar banal, repetitiv und langweilig.


Kreativ bedeutet bei generativer KI = unwahrscheinlich


Damit eine KI “kreativ” agieren kann – also etwa eine Analogie bildet, die wir noch nie gehört haben, oder einen innovativen Marketing-Slogan entwirft – müssen wir ihr erlauben, vom Pfad der höchsten Wahrscheinlichkeit abzuweichen. In der Fachsprache heißt das die “Temperatur” erhöhen: Wir zwingen das Modell, Risiken einzugehen und semantische Verbindungen zu knüpfen, die statistisch gesehen “abgelegen” sind.


Sprungbrett für Ideen, Stolperstein für Fakten


Genau hier zeigt sich die Doppelnatur dieser Modelle: Dieser algorithmische Sprung ins Ungewisse ist der Ursprung jeder Kreativität einer KI. Aber wenn das Modell diesen Sprung an einer Stelle wagt, an der wir harte Fakten erwarten, nennen wir das Ergebnis eine Halluzination.

Man könnte es vielleicht mit einem Musiker vergleichen, der improvisiert. Der Prozess, sich vom Notenblatt zu lösen, ist notwendig, um etwas Neues, Geniales zu schaffen. Doch genau dieser Prozess birgt auch das Risiko, einen völlig schiefen Ton zu treffen. Wir können das eine nicht ohne das andere haben.


Die falsche Erwartung: perfekte Maschinen


Wenn wir also von KIs verlangen, dass sie niemals halluzinieren, verlangen wir im Grunde, dass sie aufhören, “kreativ” zu sein. Wir würden sie auf reine Logik-Maschinen reduzieren. Das ist für manche Anwendungsfälle sehr wünschenswert, aber für alles, was Kreativität erfordert, ist die Halluzination kein Bug, sondern ein unvermeidbares Feature.


KI Steuern statt zähmen


Die Kompetenz im Umgang mit KI liegt also nicht darin, Halluzinationen gänzlich zu verhindern.
Wir sollten aufhören, Perfektion zu erwarten und stattdessen lernen, das Werkzeug besser zu steuern:
Präzision für die Fakten
“Wahnsinn” für die Ideen.

Ist die Halluzination ein Preis, den ihr bereit seid, für Inspiration von der KI zu zahlen?

Hier geht es zum Beitrag auf LinkedIn: Was passiert technisch, wenn KI “kreativ” ist?

Dein Content klingt nach KI? Dann bist Du ersetzbar.


Der Unterschied zwischen Content, der funktioniert, und Content, der unsichtbar bleibt, ist aber nicht die Produktionszeit. Es ist das Gewußt-Wie und die persönliche Note.

Die meisten KI-generierten Inhalte erkennt man nicht an Fehlern – die sind selten geworden. Sondern am Einheitslook: Austauschbare Bilder. Carousels ohne persönliche Note. Kein Satz, bei dem man hängenbleibt.

Die KI weiß nicht, was dich von anderen unterscheidet.
Das musst du ihr zeigen.

Ich nutze KI für fast alles: Recherche, erste Entwürfe, Bildideen, Infografiken, Carousels, Texte für Videos. Aber ich nutze sie nicht als Automat, sondern als Co-Creation-Partner.


Effizienzsteigerung? Ja immens!

Ich spare sehr viel Zeit bei der Erstellung meiner Contents: durch die richtige Nutzung der passenden Tools und clevere Workflows.
Ohne dass mein Content aussieht wie der von allen anderen.

Wie das geht, zeige ich am 11. Februar: Texte in deinem eigenen Schreibstil, Bilder und Infografiken in deinem Design, CI-konforme Carousels. Von der Idee bis zum fertigen Content.

Hier geht´s zum Beitrag auf LinkedIn: Hochwertiger Content: Workshop der Initiative Neuland

Empathie ohne Empfinden – wie funktioniert das?

Wenn ChatGPT antwortet „Das verstehe ich, das muss schwierig für dich sein” – was passiert da technisch? Warum hört sich das empathisch an?


Und wie wird diese Empathie generiert?


Von Tokens zu Trost: Der technische Prozess


Das LLM (z.B. ChatGPT) zerlegt deinen Text in Tokens (= Wortfragmente), die es statistisch verarbeitet. Es analysiert, welche Wörter in deiner Nachricht vorkommen: „Stress”, „überfordert”, „allein”. Das Modell durchsucht die gelernten Muster aus Milliarden von Texten.

Dann bestimmt die KI mithilfe des sogenannten Attention-Mechanismus, welche Teile deiner Nachricht besonders relevant sind. Konkret: Jedes Token „schaut” auf alle anderen Tokens und berechnet, wie stark es mit ihnen zusammenhängt. Schreibst du „Ich fühle mich allein seit der Trennung”, erkennt das System, dass „allein” und „Trennung” semantisch zusammengehören und gewichtet beide höher als etwa „Ich” oder „mich”.

Diese Gewichtung beeinflusst, in welche Richtung die Antwort geht. Am Ende berechnet das Modell: Welches Wort folgt mit höchster Wahrscheinlichkeit?


Mustererkennung statt Mitgefühl


Nach Beschreibungen von Schwierigkeiten folgten in den Trainingsdaten oft empathische Phrasen. Also reproduziert das System dieses Muster. Die Ausgabe klingt also einfühlsam, weil einfühlsame Menschen so geschrieben haben, nicht weil die KI etwas empfindet. Der Technikphilosoph Bruno Gransche nennt LLMs „stochastisch intelligent, aber semantisch blind”. Sie erkennen (Sprach)muster, aber sie verstehen keine Bedeutung, so wie wir Menschen das tun, denn sie wissen nicht, wie sich ein Gefühl wie z.B. Trauer anfühlt.

Warum wir trotzdem darauf reinfallen

Unser Gehirn ist evolutionär darauf programmiert, nach Intentionalität zu suchen. Diese Tendenz zum Anthropomorphismus (nicht-menschlichen Entitäten menschliche Eigenschaften zuzuschreiben) war einst überlebenswichtig. Heute wird sie zur kognitiven Falle. Wenn etwas antwortet, als ob es verstünde, behandeln wir es, als ob es verstehe.
Ein Thermostat reagiert auf Temperatur, ohne zu frieren. KI reagiert auf Traurigkeit, ohne Mitgefühl zu empfinden. Die Ausgabe sieht gleich aus, aber der Prozess dahinter ist kategorial verschieden.

Ist dieses Wissen überhaupt wichtig?

Ich denke, dass es wichtig ist, zu verstehen, wie diese scheinbar einfühlsamen Reaktionen der KI zustande kommen. Ein Verständnis für die Funktionalitäten generativer KI zu entwickeln ist in vielerlei Hinsicht hilfreich, nicht nur, wenn es darum geht, den eigenen Anthropomorphismus zu erkennen.

Das Problem ist letztlich nicht, dass KI uns tröstet. Das Problem ist, wenn wir vergessen, dass da niemand ist, der tröstet, wenn wir also die Reaktion der KI anthropomorphisieren.
Brauchen wir einen Warnhinweis: „Dieses System simuliert Empathie”? Oder reicht es, wenn wir uns des Unterschieds besser bewusst werden zwischen menschlicher Empathie und dem was die KI reproduziert?

Hier der Beitrag auf LinkedIn: Wie erzeugt KI Empathie?

Warum macht das nicht längst jeder?
ChatGPT schreibt. Claude schreibt wie ich. Und so, wie ich es will.


Claude bietet individuelle Schreibstile

Mehrere, individuell konfigurierbare Sprachstile, die ich bei jedem einzelnen Chat auswählen kann.

Nicht: einmal festlegen und für alles den gleichen Stil verwenden.
Sondern: Heute sachlich. Morgen provokant. Übermorgen warmherzig.
Je nachdem, was der Text gerade braucht.

Ich öffne einen neuen Chat, wähle den passenden Stil und schon schreibt Claude, wie ich in diesem Moment schreiben will. Immer passend zum Kontext.

Die Einrichtung ist simpel:

Ich beschreibe, wie ein bestimmter Stil klingen soll oder ich lade Referenztexte hoch, die Claude analysiert und daraus einen Schreibstil erstellt.

Claude versteht nicht nur Tonalität. Sondern Satzstruktur, Wortwahl, Rhythmus. Die Feinheiten, die einen Text nach mir klingen lassen, statt nach KI.

Anthropic (Claude) hat verstanden, was viele andere LLMs wie ChatGPT übersehen: Sprache ist nicht nur Inhalt. Sie ist Kontext, Stimmung, Absicht.

Vielleicht mache ich mal Sprachstile für jede Stimmungslage. Nur aus Spaß, nicht um euch damit zu behelligen wie ich klinge wenn ich gerade wütend bin.

Im LinkedIn Beitrag findest du: die komplette Anleitung mit Screenshots zum direkten Umsetzen.

Präsentationen mit KI ohne KI-Einheitslook? Geht das?

Die meisten KI-generierten Präsentationen erkennt man sofort: generische Struktur, Visualisierungen wie aus dem Template-Katalog.

Das passiert, wenn man KI als Abkürzung versteht statt als Werkzeug.

Ich nutze KI für Präsentationen

Ich erstelle oft mehrere Präsentationen wöchentlich.
Trotzdem sehen sie nicht aus wie KI-Präsentationen.

Mein Ansatz: Research, Storyline, Strukturierung & Visualisierung, jeder Schritt mit dem passenden Werkzeug.

💡Und Vorlagen im individuellen CI: Farben, Schriftarten, Layouts: Einmal individuell eingerichtet wird jede Präsentation in kurzer Zeit individualisiert und ganz ohne KI-Standardlook generiert.

Wer versteht, was KI kann und was nicht, braucht keine zwanzig Tools, sondern einen klaren Ablauf.

Das Ergebnis: Präsentationen mit Substanz und Ästhetik. In einem Bruchteil der Zeit, aber ohne den typischen KI-Einheitslook.

Hier geht es zum Beitrag auf LinkedIn: Präsentationen mit KI

Haben meine Chats Einfluss auf das Training des LLMs?

Und wie lernt das Modell “gut” von “böse” zu unterscheiden??

Ein vortrainiertes Sprachmodell wie ChatGPT unterscheidet nicht zwischen Hilfe und Schaden. Es generiert mit derselben statistischen Eleganz Hilfestellungen wie Hasskommentare. Beides sind schließlich nur wahrscheinliche Wortfolgen.

Wie also wird daraus ein Assistent, der sich weigert, Anleitungen für Waffen zu liefern?

Durch RLHF: Reinforcement Learning with Human Feedback und zusätzliche Sicherheitsschichten.

Menschen bewerten Antworten.

Das Modell lernt: Was ist hilfreich? Was ist schädlich?

Die Sache mit der Empathie: LLMs bleiben was sie sind: eine Maschine, die Muster erkennt und Wahrscheinlichkeiten berechnet, aber sie lernen in ihren Trainingsdaten verborgene Muster menschlichen Verhaltens, Sprache und Interaktion. Mit allem, was das bedeutet.

Auch dein Feedback landet im Trainingspool für zukünftige Versionen.

jedes 👍 oder 👎 kann in die Optimierung einfließen.

Du trainierst also mit.

Willst du wissen, wie dein Feedback mitbestimmt, was ChatGPT als „hilfreich” oder „schädlich” lernt?

Und wie genau die scheinbare Empathie ins System kommt?

In diesem Beitrag auf LinkedIn findest Du die Antworten: Wie lernt ChatGPT den Unterschied von “gut” und “böse”?

Mache diesen Test:


Frag ChatGPT nach Dir selbst. Was kommt zurück?
Mache dazu mal dieses Experiment: Öffne ChatGPT und gib ein:
„Wer ist [Dein Name]?”

Bist Du mit der Antwort in der KI Suche zufrieden?

Ich mache das regelmäßig. Du kannst es auch probieren, nutze dazu auch mal einen erweiterten Prompt:

„Wer ist [Dein Name]? Was macht sie/er? Welche Themen deckt sie/er ab?“

Teste es am Besten in verschiedenen LLMs: ChatGPT, Claude, Gemini und im Googe KI-Modus.

Ich bin recht zufrieden mit meinen Ergebnissen:
Die KI kann ziemlich klar erklären, wie ich mit generativer KI arbeite, welche Schulungen und Vorträge ich anbiete und für wen meine Angebote gedacht sind.

💡Warum?

Für KI Suche sind konsistente Informationen aus verschiedenen Quellen wichtig

Weil die KI aufgrund meiner Aktivitäten aus verschiedenen Quellen konsistente Informationen einsammeln kann:
Website-Texte, LinkedIn-Posts, Veranstaltungs-Ankündigungen, Podcasts.
Überall tauchen wiederkehrende Begriffe, Formulierungen und Beispiele auf.

Das ist einer von vielen wichtigen Punkten bei GEO (Generative Engine Optimization):
Die eigenen Inhalte so zu strukturieren, dass die KI ein stimmiges Bild von Dir rekonstruieren kann.

Was bedeutet das konkret?

Wichtige Komponenten für Optimierung für die KI Suche: GEO


-> Deine Website-Struktur: muss für KI-Crawler verständlich sein
-> Deine Expertise: klar formuliert und kontextualisiert
-> Aktualität zählt mehr denn je
-> Autoritätsaufbau: Es geht nicht um Backlinks, sondern darum, in qualitativen Quellen zitiert zu werden
-> Klare Kernbotschaften: konsistent durch all Deine Inhalte
-> Kontext, Kontext, Kontext: Für wen arbeitest Du, welche Probleme löst Du, wie arbeitest Du konkret?

Wenn eine KI Dich auf dieser Basis treffend beschreiben kann, steigt die Chance, dass sie Dich auch sinnvoll einordnet.

Probiere den obigen Prompt aus: Sind die Ergebnisse so wie du gerne dargestellt werden möchtest?

Wenn Du mehr dazu erfahren möchtest, wie Du Deine Sichtbarkeit in der KI-Suche optimieren kannst: die nächsten Termine für meine GEO Schulung sind: 18.12.2025 (es gibt noch 2 Restplätze) und 16.01.2026.

Den ganzen Beitrag findest Du hier auf LinekdIn: Sichtbarkeit in KI Suche

„KI versteht mich doch gar nicht – oder?”
Genau. Tut sie nicht. Oder doch?

Wie funktioniert Tokenisierung?

Wenn du mit ChatGPT chattest, liest da niemand deine Wörter. Stattdessen werden sie zerhackt, in Tokens zerlegt und in Zahlen übersetzt.

„Künstliche Intelligenz” wird zu [“Künst”, “liche”, “ĠIntel”, “ligenz”], oder auch anders, je nachdem.

Klingt nach Kleinkram? Ist es nicht.

Tokens sind der Schlüssel

Denn Tokens sind der Schlüssel dazu, wie KI überhaupt mit Sprache arbeiten kann. Ohne sie: kein ChatGPT. Mit ihnen: ein Modell, das Milliarden Texte „gelesen” hat ohne ein Wort davon zu verstehen.

KI lernt nicht Bedeutung, sondern optimiert Wahrscheinlichkeiten

Was dann passiert? Statistik. Das Modell lernt nicht Bedeutung, sondern optimiert Wahrscheinlichkeiten. Nach „Die Katze sitzt auf der …” kommt halt öfter „Decke” als „Gabel”. Ganz einfach.

Und das kann die KI so gut, dass es wie Verständnis wirkt. Wir schreiben ihr Gefühle zu, diskutieren mit ihr, vermenschlichen sie vielleicht sogar ein wenig und vergessen dabei fast, dass dahinter nur Berechnungen stehen.

In diesem Carousel zeige ich dir, wie aus Buchstaben Datenwissen wird und warum du das wissen solltest, wenn du mit KI arbeitest.

Hier geht es zum Beitrag auf LinkedIn, in dem Du in meinem Carusel (PDF zum download) erfährst: was Tokens sind und wie Tokenisierung funktioniert

“KI-Kompetenz?” Viele KI-Trainings trainieren das Falsche.


Was du wirklich brauchst:

Viele denken bei KI-Kompetenz an ChatGPT nutzen und Prompts schreiben.
Aber das ist nur ein kleiner Teil der Kompetenzen, die du brauchst.



Tool-Bedienung ≠ KI Kompetenz



Wenn du dich jetzt fragst

“Was macht KI Kompetenz aus?”

und

“Was ist KI Kompetenz?”



→ Menschen mit hoher KI Kompetenz nutzen KI als Sparringspartner, um Gedanken zu entwickeln und Argumente zu strukturieren. Nicht als Ersatz fürs Denken. Sie treffen bessere Entscheidungen und bewerten KI-Outputs kritisch.

Und es geht auch darum zu verstehen, WIE und WOBEI die KI am besten hilft.

💡Die sechs Dimensionen produktiver KI-Kompetenz
Von technischem Grundverständnis über kritische Reflexion bis hin zu persönlicher Haltung: KI-Kompetenz bedeutet mehr als sie nur zu nutzen.

Swipe durch das Carousel und frag dich: “Bin ich wirklich kompetent im Umgang mit KI oder nur routiniert? Wo sind Lücken, die ich schließen muss?”

Denn KI-Kompetenz ist erlernbar. Nicht nur für Techies, sondern für jeden, der bereit ist, sich damit auseinanderzusetzen.

Wie lernst du KI? Durch Erfahrung oder gezielte Weiterbildung?

Hier geht es zum Beitrag auf LinkedIn mit ausführlichem Carousel zu KI Kompetenz: Was macht KI Kompetenz aus?