Genervt von mittelmäßigen KI-Antworten?


Dann hör auf zu chatten und fang an zu engineeren.
Denn gute Ergebnisse sind kein Zufall, sondern gutes Handwerk.

Wir neigen dazu, mit ChatGPT & Co so zu reden wie mit einem Kollegen: vage, sehr höflich und mit viel Kontext, den man „zwischen den Zeilen“ lesen muss.
Für eine KI ist das störendes Rauschen („Noise“).


Für hochwertige Prompting-Ergebnisse müssen wir unsere Sprache anpassen:


Weg von Rollenspielen
➡️ Hin zu Denkrichtungen

Weg von offenen Bitten
➡️ Hin zu klaren Vorgaben (Constraints)

Weg von Endlos-Chats
➡️ Hin zu iterativen Neustarts

Im Carousel erkläre ich 7 Prinzipien, die aus einem lockeren Chat einen verlässlichen Prozess machen:
Eine kompakte Checkliste für deine täglichen Prompts.

Die 7 Prinzipien findest Du hier in meinem LinkedIn Beitrag: 7 Prinzipien für professionelles Prompting

ChatGPT im Wahrheitsmodus:

Wenn du Halluzinationen aus der KI eliminierst, verbannst du auch die Kreativität.


Wir behandeln die sogenannten Halluzinationen von generativer KI, als wären sie ein Fehler im System: ein Bug, den die Entwickler in Silicon Valley nur noch nicht behoben haben. Doch wir dürfen das Phänomen der Halluzinationen nicht isoliert betrachten.

Das technische Verfahren, das eine KI halluzinieren lässt, ist nämlich dasselbe, das sie kreativ macht.


Was passiert technisch, wenn KI “kreativ” ist?


Um das zu verstehen, müssen wir uns kurz vor Augen führen, dass LLMs wie ChatGPT, Gemini oder Claude keine Datenbanken des Wissens sind, sondern Wahrscheinlichkeiten berechnen. Sie berechnen das jeweils nächste Wort in einer Sequenz. Würde eine KI immer nur den statistisch wahrscheinlichsten Pfad wählen, wären ihre Antworten zwar faktisch sicherer, aber auch unfassbar banal, repetitiv und langweilig.


Kreativ bedeutet bei generativer KI = unwahrscheinlich


Damit eine KI “kreativ” agieren kann – also etwa eine Analogie bildet, die wir noch nie gehört haben, oder einen innovativen Marketing-Slogan entwirft – müssen wir ihr erlauben, vom Pfad der höchsten Wahrscheinlichkeit abzuweichen. In der Fachsprache heißt das die “Temperatur” erhöhen: Wir zwingen das Modell, Risiken einzugehen und semantische Verbindungen zu knüpfen, die statistisch gesehen “abgelegen” sind.


Sprungbrett für Ideen, Stolperstein für Fakten


Genau hier zeigt sich die Doppelnatur dieser Modelle: Dieser algorithmische Sprung ins Ungewisse ist der Ursprung jeder Kreativität einer KI. Aber wenn das Modell diesen Sprung an einer Stelle wagt, an der wir harte Fakten erwarten, nennen wir das Ergebnis eine Halluzination.

Man könnte es vielleicht mit einem Musiker vergleichen, der improvisiert. Der Prozess, sich vom Notenblatt zu lösen, ist notwendig, um etwas Neues, Geniales zu schaffen. Doch genau dieser Prozess birgt auch das Risiko, einen völlig schiefen Ton zu treffen. Wir können das eine nicht ohne das andere haben.


Die falsche Erwartung: perfekte Maschinen


Wenn wir also von KIs verlangen, dass sie niemals halluzinieren, verlangen wir im Grunde, dass sie aufhören, “kreativ” zu sein. Wir würden sie auf reine Logik-Maschinen reduzieren. Das ist für manche Anwendungsfälle sehr wünschenswert, aber für alles, was Kreativität erfordert, ist die Halluzination kein Bug, sondern ein unvermeidbares Feature.


KI Steuern statt zähmen


Die Kompetenz im Umgang mit KI liegt also nicht darin, Halluzinationen gänzlich zu verhindern.
Wir sollten aufhören, Perfektion zu erwarten und stattdessen lernen, das Werkzeug besser zu steuern:
Präzision für die Fakten
“Wahnsinn” für die Ideen.

Ist die Halluzination ein Preis, den ihr bereit seid, für Inspiration von der KI zu zahlen?

Hier geht es zum Beitrag auf LinkedIn: Was passiert technisch, wenn KI “kreativ” ist?

„Macht KI uns bald überflüssig?“
Das ist die falsche Frage.
Die viel wichtigere lautet: Sind wir bereit, aufzuhören, wie Maschinen zu arbeiten?

Jahrelang haben wir genau das versucht. Wir haben uns selbst optimiert, unsere Kalender getaktet wie Prozessoren und unsere Kommunikation auf Transaktionsgeschwindigkeit getrimmt.

Dieser Wettlauf ist vorbei. Die Maschine hat gewonnen.
Und das ist die beste Nachricht des Jahrzehnts.


Denn dieser “Verlust” der maschinellen Aufgaben an die KI löst eine wunderbare Inversion der Wertschöpfung aus:


Mehr Menschlichkeit dank generativer KI

1. Die Rückeroberung der Resonanz


Wenn KI uns Zeit schenkt, dann ist das nicht einfach nur “Freizeit” im Sinne von Leerlauf. Es ist die Rückgewinnung kognitiver und emotionaler Bandbreite. Lange wurde unsere Menschlichkeit von administrativer Last und repetitivem Abarbeiten verschüttet. Klug angewandte KI übernimmt nun das Rauschen, damit wir uns wieder dem Signal widmen können. Sie gibt uns den Raum zurück, um echte Gespräche zu führen. Wir bekommen die Chance, uns wieder den Nuancen zu widmen: den subtilen Zwischentönen in Verhandlungen oder Mitarbeitergesprächen, die keine KI decodieren kann.


2. KI als Spiegel unserer Führungskultur


Es ist ein Irrglaube, dass KI uns weniger Verantwortung abverlangt. Das Gegenteil ist der Fall. Wer KI effektiv steuern will, braucht exzellente Führungskompetenz. Eine unklare Anweisung führt zu einem halluzinierenden Ergebnis. KI hält uns den Spiegel vor: Wer keine Empathie, keine klare Vision und kein kontextuelles Verständnis besitzt, wird an der KI scheitern, so wie er an der Führung von Menschen scheitert. “Prompting” ist im Kern nichts anderes als Delegieren mit höchster Präzision. Menschliche Weisheit wird damit zur härtesten Währung am Arbeitsmarkt.


3. Menschliche Verbindung als Premium-Produkt


In einer Welt, in der synthetische Inhalte unendlich verfügbar sind, wird das Authentische zum Luxusgut. Wissen ist überall abrufbar, aber Vertrauen lässt sich nicht automatisieren. Die wirklichen Durchbrüche werden künftig in Ökosystemen und Allianzen entstehen, in denen die chemische Reaktion zwischen Menschen den Unterschied macht.

Wir stehen an einer Schwelle, an der Technologie nicht mehr dazu dient, uns von unserer Natur zu entfernen, sondern sie zur Bedingung für Erfolg macht.

Die Zukunft gehört für mich nicht den schnellsten Rechnern. Sie gehört den empathischsten, vernetztesten und menschlichsten Persönlichkeiten.

Hier geht es zum Beitrag auf LinkedIn: Macht KI uns überflüssig? Mehr Menschlichkeit dank generativer KI

Dein Content klingt nach KI? Dann bist Du ersetzbar.


Der Unterschied zwischen Content, der funktioniert, und Content, der unsichtbar bleibt, ist aber nicht die Produktionszeit. Es ist das Gewußt-Wie und die persönliche Note.

Die meisten KI-generierten Inhalte erkennt man nicht an Fehlern – die sind selten geworden. Sondern am Einheitslook: Austauschbare Bilder. Carousels ohne persönliche Note. Kein Satz, bei dem man hängenbleibt.

Die KI weiß nicht, was dich von anderen unterscheidet.
Das musst du ihr zeigen.

Ich nutze KI für fast alles: Recherche, erste Entwürfe, Bildideen, Infografiken, Carousels, Texte für Videos. Aber ich nutze sie nicht als Automat, sondern als Co-Creation-Partner.


Effizienzsteigerung? Ja immens!

Ich spare sehr viel Zeit bei der Erstellung meiner Contents: durch die richtige Nutzung der passenden Tools und clevere Workflows.
Ohne dass mein Content aussieht wie der von allen anderen.

Wie das geht, zeige ich am 11. Februar: Texte in deinem eigenen Schreibstil, Bilder und Infografiken in deinem Design, CI-konforme Carousels. Von der Idee bis zum fertigen Content.

Hier geht´s zum Beitrag auf LinkedIn: Hochwertiger Content: Workshop der Initiative Neuland

Empathie ohne Empfinden – wie funktioniert das?

Wenn ChatGPT antwortet „Das verstehe ich, das muss schwierig für dich sein” – was passiert da technisch? Warum hört sich das empathisch an?


Und wie wird diese Empathie generiert?


Von Tokens zu Trost: Der technische Prozess


Das LLM (z.B. ChatGPT) zerlegt deinen Text in Tokens (= Wortfragmente), die es statistisch verarbeitet. Es analysiert, welche Wörter in deiner Nachricht vorkommen: „Stress”, „überfordert”, „allein”. Das Modell durchsucht die gelernten Muster aus Milliarden von Texten.

Dann bestimmt die KI mithilfe des sogenannten Attention-Mechanismus, welche Teile deiner Nachricht besonders relevant sind. Konkret: Jedes Token „schaut” auf alle anderen Tokens und berechnet, wie stark es mit ihnen zusammenhängt. Schreibst du „Ich fühle mich allein seit der Trennung”, erkennt das System, dass „allein” und „Trennung” semantisch zusammengehören und gewichtet beide höher als etwa „Ich” oder „mich”.

Diese Gewichtung beeinflusst, in welche Richtung die Antwort geht. Am Ende berechnet das Modell: Welches Wort folgt mit höchster Wahrscheinlichkeit?


Mustererkennung statt Mitgefühl


Nach Beschreibungen von Schwierigkeiten folgten in den Trainingsdaten oft empathische Phrasen. Also reproduziert das System dieses Muster. Die Ausgabe klingt also einfühlsam, weil einfühlsame Menschen so geschrieben haben, nicht weil die KI etwas empfindet. Der Technikphilosoph Bruno Gransche nennt LLMs „stochastisch intelligent, aber semantisch blind”. Sie erkennen (Sprach)muster, aber sie verstehen keine Bedeutung, so wie wir Menschen das tun, denn sie wissen nicht, wie sich ein Gefühl wie z.B. Trauer anfühlt.

Warum wir trotzdem darauf reinfallen

Unser Gehirn ist evolutionär darauf programmiert, nach Intentionalität zu suchen. Diese Tendenz zum Anthropomorphismus (nicht-menschlichen Entitäten menschliche Eigenschaften zuzuschreiben) war einst überlebenswichtig. Heute wird sie zur kognitiven Falle. Wenn etwas antwortet, als ob es verstünde, behandeln wir es, als ob es verstehe.
Ein Thermostat reagiert auf Temperatur, ohne zu frieren. KI reagiert auf Traurigkeit, ohne Mitgefühl zu empfinden. Die Ausgabe sieht gleich aus, aber der Prozess dahinter ist kategorial verschieden.

Ist dieses Wissen überhaupt wichtig?

Ich denke, dass es wichtig ist, zu verstehen, wie diese scheinbar einfühlsamen Reaktionen der KI zustande kommen. Ein Verständnis für die Funktionalitäten generativer KI zu entwickeln ist in vielerlei Hinsicht hilfreich, nicht nur, wenn es darum geht, den eigenen Anthropomorphismus zu erkennen.

Das Problem ist letztlich nicht, dass KI uns tröstet. Das Problem ist, wenn wir vergessen, dass da niemand ist, der tröstet, wenn wir also die Reaktion der KI anthropomorphisieren.
Brauchen wir einen Warnhinweis: „Dieses System simuliert Empathie”? Oder reicht es, wenn wir uns des Unterschieds besser bewusst werden zwischen menschlicher Empathie und dem was die KI reproduziert?

Hier der Beitrag auf LinkedIn: Wie erzeugt KI Empathie?

Warum macht das nicht längst jeder?
ChatGPT schreibt. Claude schreibt wie ich. Und so, wie ich es will.


Claude bietet individuelle Schreibstile

Mehrere, individuell konfigurierbare Sprachstile, die ich bei jedem einzelnen Chat auswählen kann.

Nicht: einmal festlegen und für alles den gleichen Stil verwenden.
Sondern: Heute sachlich. Morgen provokant. Übermorgen warmherzig.
Je nachdem, was der Text gerade braucht.

Ich öffne einen neuen Chat, wähle den passenden Stil und schon schreibt Claude, wie ich in diesem Moment schreiben will. Immer passend zum Kontext.

Die Einrichtung ist simpel:

Ich beschreibe, wie ein bestimmter Stil klingen soll oder ich lade Referenztexte hoch, die Claude analysiert und daraus einen Schreibstil erstellt.

Claude versteht nicht nur Tonalität. Sondern Satzstruktur, Wortwahl, Rhythmus. Die Feinheiten, die einen Text nach mir klingen lassen, statt nach KI.

Anthropic (Claude) hat verstanden, was viele andere LLMs wie ChatGPT übersehen: Sprache ist nicht nur Inhalt. Sie ist Kontext, Stimmung, Absicht.

Vielleicht mache ich mal Sprachstile für jede Stimmungslage. Nur aus Spaß, nicht um euch damit zu behelligen wie ich klinge wenn ich gerade wütend bin.

Im LinkedIn Beitrag findest du: die komplette Anleitung mit Screenshots zum direkten Umsetzen.

Präsentationen mit KI ohne KI-Einheitslook? Geht das?

Die meisten KI-generierten Präsentationen erkennt man sofort: generische Struktur, Visualisierungen wie aus dem Template-Katalog.

Das passiert, wenn man KI als Abkürzung versteht statt als Werkzeug.

Ich nutze KI für Präsentationen

Ich erstelle oft mehrere Präsentationen wöchentlich.
Trotzdem sehen sie nicht aus wie KI-Präsentationen.

Mein Ansatz: Research, Storyline, Strukturierung & Visualisierung, jeder Schritt mit dem passenden Werkzeug.

💡Und Vorlagen im individuellen CI: Farben, Schriftarten, Layouts: Einmal individuell eingerichtet wird jede Präsentation in kurzer Zeit individualisiert und ganz ohne KI-Standardlook generiert.

Wer versteht, was KI kann und was nicht, braucht keine zwanzig Tools, sondern einen klaren Ablauf.

Das Ergebnis: Präsentationen mit Substanz und Ästhetik. In einem Bruchteil der Zeit, aber ohne den typischen KI-Einheitslook.

Hier geht es zum Beitrag auf LinkedIn: Präsentationen mit KI

Haben meine Chats Einfluss auf das Training des LLMs?

Und wie lernt das Modell “gut” von “böse” zu unterscheiden??

Ein vortrainiertes Sprachmodell wie ChatGPT unterscheidet nicht zwischen Hilfe und Schaden. Es generiert mit derselben statistischen Eleganz Hilfestellungen wie Hasskommentare. Beides sind schließlich nur wahrscheinliche Wortfolgen.

Wie also wird daraus ein Assistent, der sich weigert, Anleitungen für Waffen zu liefern?

Durch RLHF: Reinforcement Learning with Human Feedback und zusätzliche Sicherheitsschichten.

Menschen bewerten Antworten.

Das Modell lernt: Was ist hilfreich? Was ist schädlich?

Die Sache mit der Empathie: LLMs bleiben was sie sind: eine Maschine, die Muster erkennt und Wahrscheinlichkeiten berechnet, aber sie lernen in ihren Trainingsdaten verborgene Muster menschlichen Verhaltens, Sprache und Interaktion. Mit allem, was das bedeutet.

Auch dein Feedback landet im Trainingspool für zukünftige Versionen.

jedes 👍 oder 👎 kann in die Optimierung einfließen.

Du trainierst also mit.

Willst du wissen, wie dein Feedback mitbestimmt, was ChatGPT als „hilfreich” oder „schädlich” lernt?

Und wie genau die scheinbare Empathie ins System kommt?

In diesem Beitrag auf LinkedIn findest Du die Antworten: Wie lernt ChatGPT den Unterschied von “gut” und “böse”?


KI Modelle generieren Code, der funktioniert und beeindruckend präzise Antworten. Sie trainieren sich gegenseitig, korrigieren sich selbst, entwickeln Fähigkeiten, die kein Mensch eingeplant hat.

Und wir?

Alle wollen Agenten. Autonome Systeme, die Tickets lösen, Angebote schreiben, Prozesse orchestrieren. Der Traum von der Maschine, die mitdenkt.

Aber in denselben Unternehmen weiß niemand, wer überhaupt prompten darf. Schulungen? Verschoben. Datenqualität? Später.


Das ist keine KI-Strategie. Das ist Leadership ohne Konzept.


KI-Transformation ist Change Management und Change scheitert hier nicht an der Technologie, sondern an dem, was niemand anfassen will.

0 + 100 ≠ 100.

Man kann das leistungsfähigste Modell der Welt kaufen. Wenn es auf Chaos trifft, produziert es schnelleres Chaos. KI erfindet keine Substanz, sondern entlarvt, wo keine ist.

Nur redet darüber niemand gern. Der Engpass ist nicht die Technologie, er sitzt in Meetings und wartet auf Freigaben, in der Hoffnung, dass irgendwer anders das schon regelt.

Was es braucht, ist kein größeres Modell. Es sind kürzere Schleifen, klarere Leitplanken. Mitarbeitende und Vorgesetzte, die verstehen, was sie da eigentlich bedienen.

Das klingt weniger nach Zukunft als „autonome Agenten”. Es taugt auch nicht gut für Keynotes, aber sehr gut für Leadership.
Es ist der Unterschied zwischen digitaler Transformation und Pilotprojekten, die leise scheitern.

Die Frage ist daher nicht: Wann kommt unser Agent?
Sondern: Was passiert, wenn er sieht, was wir ihm geben?

Genau deshalb sind KI Kompetenz Schulungen keine Nice-to-have-Maßnahme:

Was mir in Unternehmen begegnet sind Mitarbeitende, die KI irgendwie nutzen, weil sie an einer 2-stündigen “KI Kompetenzschulung” teilgenommen haben und danach alleine gelassen werden.


Wenn Du KI Kompetenz aufbauen möchtest hier die nächsten Termine für KI Kompetenz Schulungen der Initiative Neuland:
Grundlagen Generative KI und Prompting (2 Vormittage): 20./21.01.2026 & 18./19.02.2026
Fortgeschrittene Anwendung generative KI (2 Vormittage): 08./09.01. & 26./27.02.2026
Individuelle Termine Online & Inhouse auf Anfrage.
Weitere Infos auf der Webseite