Dein Content klingt nach KI? Dann bist Du ersetzbar.


Der Unterschied zwischen Content, der funktioniert, und Content, der unsichtbar bleibt, ist aber nicht die Produktionszeit. Es ist das Gewußt-Wie und die persönliche Note.

Die meisten KI-generierten Inhalte erkennt man nicht an Fehlern – die sind selten geworden. Sondern am Einheitslook: Austauschbare Bilder. Carousels ohne persönliche Note. Kein Satz, bei dem man hängenbleibt.

Die KI weiß nicht, was dich von anderen unterscheidet.
Das musst du ihr zeigen.

Ich nutze KI für fast alles: Recherche, erste Entwürfe, Bildideen, Infografiken, Carousels, Texte für Videos. Aber ich nutze sie nicht als Automat, sondern als Co-Creation-Partner.


Effizienzsteigerung? Ja immens!

Ich spare sehr viel Zeit bei der Erstellung meiner Contents: durch die richtige Nutzung der passenden Tools und clevere Workflows.
Ohne dass mein Content aussieht wie der von allen anderen.

Wie das geht, zeige ich am 11. Februar: Texte in deinem eigenen Schreibstil, Bilder und Infografiken in deinem Design, CI-konforme Carousels. Von der Idee bis zum fertigen Content.

Hier geht´s zum Beitrag auf LinkedIn: Hochwertiger Content: Workshop der Initiative Neuland

Empathie ohne Empfinden – wie funktioniert das?

Wenn ChatGPT antwortet „Das verstehe ich, das muss schwierig für dich sein“ – was passiert da technisch? Warum hört sich das empathisch an?


Und wie wird diese Empathie generiert?


Von Tokens zu Trost: Der technische Prozess


Das LLM (z.B. ChatGPT) zerlegt deinen Text in Tokens (= Wortfragmente), die es statistisch verarbeitet. Es analysiert, welche Wörter in deiner Nachricht vorkommen: „Stress“, „überfordert“, „allein“. Das Modell durchsucht die gelernten Muster aus Milliarden von Texten.

Dann bestimmt die KI mithilfe des sogenannten Attention-Mechanismus, welche Teile deiner Nachricht besonders relevant sind. Konkret: Jedes Token „schaut“ auf alle anderen Tokens und berechnet, wie stark es mit ihnen zusammenhängt. Schreibst du „Ich fühle mich allein seit der Trennung“, erkennt das System, dass „allein“ und „Trennung“ semantisch zusammengehören und gewichtet beide höher als etwa „Ich“ oder „mich“.

Diese Gewichtung beeinflusst, in welche Richtung die Antwort geht. Am Ende berechnet das Modell: Welches Wort folgt mit höchster Wahrscheinlichkeit?


Mustererkennung statt Mitgefühl


Nach Beschreibungen von Schwierigkeiten folgten in den Trainingsdaten oft empathische Phrasen. Also reproduziert das System dieses Muster. Die Ausgabe klingt also einfühlsam, weil einfühlsame Menschen so geschrieben haben, nicht weil die KI etwas empfindet. Der Technikphilosoph Bruno Gransche nennt LLMs „stochastisch intelligent, aber semantisch blind“. Sie erkennen (Sprach)muster, aber sie verstehen keine Bedeutung, so wie wir Menschen das tun, denn sie wissen nicht, wie sich ein Gefühl wie z.B. Trauer anfühlt.

Warum wir trotzdem darauf reinfallen

Unser Gehirn ist evolutionär darauf programmiert, nach Intentionalität zu suchen. Diese Tendenz zum Anthropomorphismus (nicht-menschlichen Entitäten menschliche Eigenschaften zuzuschreiben) war einst überlebenswichtig. Heute wird sie zur kognitiven Falle. Wenn etwas antwortet, als ob es verstünde, behandeln wir es, als ob es verstehe.
Ein Thermostat reagiert auf Temperatur, ohne zu frieren. KI reagiert auf Traurigkeit, ohne Mitgefühl zu empfinden. Die Ausgabe sieht gleich aus, aber der Prozess dahinter ist kategorial verschieden.

Ist dieses Wissen überhaupt wichtig?

Ich denke, dass es wichtig ist, zu verstehen, wie diese scheinbar einfühlsamen Reaktionen der KI zustande kommen. Ein Verständnis für die Funktionalitäten generativer KI zu entwickeln ist in vielerlei Hinsicht hilfreich, nicht nur, wenn es darum geht, den eigenen Anthropomorphismus zu erkennen.

Das Problem ist letztlich nicht, dass KI uns tröstet. Das Problem ist, wenn wir vergessen, dass da niemand ist, der tröstet, wenn wir also die Reaktion der KI anthropomorphisieren.
Brauchen wir einen Warnhinweis: „Dieses System simuliert Empathie“? Oder reicht es, wenn wir uns des Unterschieds besser bewusst werden zwischen menschlicher Empathie und dem was die KI reproduziert?

Hier der Beitrag auf LinkedIn: Wie erzeugt KI Empathie?

Warum macht das nicht längst jeder?
ChatGPT schreibt. Claude schreibt wie ich. Und so, wie ich es will.


Claude bietet individuelle Schreibstile

Mehrere, individuell konfigurierbare Sprachstile, die ich bei jedem einzelnen Chat auswählen kann.

Nicht: einmal festlegen und für alles den gleichen Stil verwenden.
Sondern: Heute sachlich. Morgen provokant. Übermorgen warmherzig.
Je nachdem, was der Text gerade braucht.

Ich öffne einen neuen Chat, wähle den passenden Stil und schon schreibt Claude, wie ich in diesem Moment schreiben will. Immer passend zum Kontext.

Die Einrichtung ist simpel:

Ich beschreibe, wie ein bestimmter Stil klingen soll oder ich lade Referenztexte hoch, die Claude analysiert und daraus einen Schreibstil erstellt.

Claude versteht nicht nur Tonalität. Sondern Satzstruktur, Wortwahl, Rhythmus. Die Feinheiten, die einen Text nach mir klingen lassen, statt nach KI.

Anthropic (Claude) hat verstanden, was viele andere LLMs wie ChatGPT übersehen: Sprache ist nicht nur Inhalt. Sie ist Kontext, Stimmung, Absicht.

Vielleicht mache ich mal Sprachstile für jede Stimmungslage. Nur aus Spaß, nicht um euch damit zu behelligen wie ich klinge wenn ich gerade wütend bin.

Im LinkedIn Beitrag findest du: die komplette Anleitung mit Screenshots zum direkten Umsetzen.

Präsentationen mit KI ohne KI-Einheitslook? Geht das?

Die meisten KI-generierten Präsentationen erkennt man sofort: generische Struktur, Visualisierungen wie aus dem Template-Katalog.

Das passiert, wenn man KI als Abkürzung versteht statt als Werkzeug.

Ich nutze KI für Präsentationen

Ich erstelle oft mehrere Präsentationen wöchentlich.
Trotzdem sehen sie nicht aus wie KI-Präsentationen.

Mein Ansatz: Research, Storyline, Strukturierung & Visualisierung, jeder Schritt mit dem passenden Werkzeug.

💡Und Vorlagen im individuellen CI: Farben, Schriftarten, Layouts: Einmal individuell eingerichtet wird jede Präsentation in kurzer Zeit individualisiert und ganz ohne KI-Standardlook generiert.

Wer versteht, was KI kann und was nicht, braucht keine zwanzig Tools, sondern einen klaren Ablauf.

Das Ergebnis: Präsentationen mit Substanz und Ästhetik. In einem Bruchteil der Zeit, aber ohne den typischen KI-Einheitslook.

Hier geht es zum Beitrag auf LinkedIn: Präsentationen mit KI

Haben meine Chats Einfluss auf das Training des LLMs?

Und wie lernt das Modell „gut“ von „böse“ zu unterscheiden??

Ein vortrainiertes Sprachmodell wie ChatGPT unterscheidet nicht zwischen Hilfe und Schaden. Es generiert mit derselben statistischen Eleganz Hilfestellungen wie Hasskommentare. Beides sind schließlich nur wahrscheinliche Wortfolgen.

Wie also wird daraus ein Assistent, der sich weigert, Anleitungen für Waffen zu liefern?

Durch RLHF: Reinforcement Learning with Human Feedback und zusätzliche Sicherheitsschichten.

Menschen bewerten Antworten.

Das Modell lernt: Was ist hilfreich? Was ist schädlich?

Die Sache mit der Empathie: LLMs bleiben was sie sind: eine Maschine, die Muster erkennt und Wahrscheinlichkeiten berechnet, aber sie lernen in ihren Trainingsdaten verborgene Muster menschlichen Verhaltens, Sprache und Interaktion. Mit allem, was das bedeutet.

Auch dein Feedback landet im Trainingspool für zukünftige Versionen.

jedes 👍 oder 👎 kann in die Optimierung einfließen.

Du trainierst also mit.

Willst du wissen, wie dein Feedback mitbestimmt, was ChatGPT als „hilfreich“ oder „schädlich“ lernt?

Und wie genau die scheinbare Empathie ins System kommt?

In diesem Beitrag auf LinkedIn findest Du die Antworten: Wie lernt ChatGPT den Unterschied von „gut“ und „böse“?


KI Modelle generieren Code, der funktioniert und beeindruckend präzise Antworten. Sie trainieren sich gegenseitig, korrigieren sich selbst, entwickeln Fähigkeiten, die kein Mensch eingeplant hat.

Und wir?

Alle wollen Agenten. Autonome Systeme, die Tickets lösen, Angebote schreiben, Prozesse orchestrieren. Der Traum von der Maschine, die mitdenkt.

Aber in denselben Unternehmen weiß niemand, wer überhaupt prompten darf. Schulungen? Verschoben. Datenqualität? Später.


Das ist keine KI-Strategie. Das ist Leadership ohne Konzept.


KI-Transformation ist Change Management und Change scheitert hier nicht an der Technologie, sondern an dem, was niemand anfassen will.

0 + 100 ≠ 100.

Man kann das leistungsfähigste Modell der Welt kaufen. Wenn es auf Chaos trifft, produziert es schnelleres Chaos. KI erfindet keine Substanz, sondern entlarvt, wo keine ist.

Nur redet darüber niemand gern. Der Engpass ist nicht die Technologie, er sitzt in Meetings und wartet auf Freigaben, in der Hoffnung, dass irgendwer anders das schon regelt.

Was es braucht, ist kein größeres Modell. Es sind kürzere Schleifen, klarere Leitplanken. Mitarbeitende und Vorgesetzte, die verstehen, was sie da eigentlich bedienen.

Das klingt weniger nach Zukunft als „autonome Agenten“. Es taugt auch nicht gut für Keynotes, aber sehr gut für Leadership.
Es ist der Unterschied zwischen digitaler Transformation und Pilotprojekten, die leise scheitern.

Die Frage ist daher nicht: Wann kommt unser Agent?
Sondern: Was passiert, wenn er sieht, was wir ihm geben?

Genau deshalb sind KI Kompetenz Schulungen keine Nice-to-have-Maßnahme:

Was mir in Unternehmen begegnet sind Mitarbeitende, die KI irgendwie nutzen, weil sie an einer 2-stündigen “KI Kompetenzschulung” teilgenommen haben und danach alleine gelassen werden.


Wenn Du KI Kompetenz aufbauen möchtest hier die nächsten Termine für KI Kompetenz Schulungen der Initiative Neuland:
Grundlagen Generative KI und Prompting (2 Vormittage): 20./21.01.2026 & 18./19.02.2026
Fortgeschrittene Anwendung generative KI (2 Vormittage): 08./09.01. & 26./27.02.2026
Individuelle Termine Online & Inhouse auf Anfrage.
Weitere Infos auf der Webseite

Verzerrte Algorithmen, Datenschutzprobleme und die Gefahr, dass KI die Menschlichkeit verdrängt.

All das sind Risiken bei der Nutzung von KI und sie sollte vor allem menschliche Begegnungen nicht ersetzen.

Aber KI verspricht auch eine Revolution im Gesundheitswesen: Schnellere Diagnosen, präzisere Behandlungen, Entlastung überlasteter Ärzte.

Deshalb hat die National Academy of Medicine jetzt einen umfassenden Verhaltenskodex für KI im Gesundheitswesen vorgelegt:
ein Dokument, das als Richtschnur für alle dienen soll, die mit medizinischer KI arbeiten.

Der Kodex basiert auf sechs Kernverpflichtungen:

|1| Die Menschlichkeit im Fokus behalten
KI soll Menschen nicht ersetzen, sondern unterstützen. Die menschliche Verbindung zwischen Arzt und Patient muss erhalten bleiben. Kein Chatbot kann Empathie ersetzen.

|2| Gerechtigkeit sicherstellen
Alle Menschen müssen von KI profitieren, nicht nur gut situierte Kliniken in Großstädten. Die Technologie darf bestehende Ungleichheiten nicht verstärken.

|3| Betroffene einbeziehen
Patienten, Ärzte, Pflegekräfte und Ethiker müssen von Anfang an mitentscheiden: bei der Entwicklung, Einführung und Überwachung von KI-Systemen.

|4| Das Wohlbefinden des Personals schützen
KI soll Ärzte und Pflegekräfte entlasten, nicht zusätzlich belasten. Sie brauchen Training und müssen in Entscheidungen eingebunden werden.

|5| Leistung kontinuierlich überwachen
KI-Systeme können sich im Laufe der Zeit verschlechtern oder verzerrt werden. Daher braucht es standardisierte Tests und transparente Berichterstattung über ihre Wirksamkeit.

|6| Innovieren und lernen
Der Austausch von Erkenntnissen zwischen Kliniken, Forschung und Industrie ist entscheidend. Fehler müssen offen besprochen werden können, ohne Angst vor Konsequenzen.

Konkrete Maßnahmen
Der Kodex bleibt nicht bei schönen Worten. Er schlägt konkrete Schritte vor:

-> Zertifizierungsstellen, die KI-Systeme unabhängig prüfen
-> Standardisierte Metriken zur Messung von Verzerrungen und Fairness
-> Finanzielle Anreize für Kliniken, die verantwortungsvolle KI einsetzen
-> Technische Unterstützung für kleinere, unterfinanzierte Einrichtungen
-> Nationale Forschungsagenda für KI im Gesundheitswesen
-> Ausbildungsprogramme für medizinisches Personal

Wir stehen erst am Anfang. KI entwickelt sich extrem schnell aber die Spielregeln hinken hinterher.
Der Kodex ist ein Versuch, alle Beteiligten auf gemeinsame verbindliche Prinzipien festzulegen.

KI kann das Gesundheitswesen dramatisch verbessern, aber nur wenn wir jetzt sicherstellen, dass sie allen nützt und niemandem schadet.

Mache diesen Test:


Frag ChatGPT nach Dir selbst. Was kommt zurück?
Mache dazu mal dieses Experiment: Öffne ChatGPT und gib ein:
„Wer ist [Dein Name]?“

Bist Du mit der Antwort in der KI Suche zufrieden?

Ich mache das regelmäßig. Du kannst es auch probieren, nutze dazu auch mal einen erweiterten Prompt:

„Wer ist [Dein Name]? Was macht sie/er? Welche Themen deckt sie/er ab?“

Teste es am Besten in verschiedenen LLMs: ChatGPT, Claude, Gemini und im Googe KI-Modus.

Ich bin recht zufrieden mit meinen Ergebnissen:
Die KI kann ziemlich klar erklären, wie ich mit generativer KI arbeite, welche Schulungen und Vorträge ich anbiete und für wen meine Angebote gedacht sind.

💡Warum?

Für KI Suche sind konsistente Informationen aus verschiedenen Quellen wichtig

Weil die KI aufgrund meiner Aktivitäten aus verschiedenen Quellen konsistente Informationen einsammeln kann:
Website-Texte, LinkedIn-Posts, Veranstaltungs-Ankündigungen, Podcasts.
Überall tauchen wiederkehrende Begriffe, Formulierungen und Beispiele auf.

Das ist einer von vielen wichtigen Punkten bei GEO (Generative Engine Optimization):
Die eigenen Inhalte so zu strukturieren, dass die KI ein stimmiges Bild von Dir rekonstruieren kann.

Was bedeutet das konkret?

Wichtige Komponenten für Optimierung für die KI Suche: GEO


-> Deine Website-Struktur: muss für KI-Crawler verständlich sein
-> Deine Expertise: klar formuliert und kontextualisiert
-> Aktualität zählt mehr denn je
-> Autoritätsaufbau: Es geht nicht um Backlinks, sondern darum, in qualitativen Quellen zitiert zu werden
-> Klare Kernbotschaften: konsistent durch all Deine Inhalte
-> Kontext, Kontext, Kontext: Für wen arbeitest Du, welche Probleme löst Du, wie arbeitest Du konkret?

Wenn eine KI Dich auf dieser Basis treffend beschreiben kann, steigt die Chance, dass sie Dich auch sinnvoll einordnet.

Probiere den obigen Prompt aus: Sind die Ergebnisse so wie du gerne dargestellt werden möchtest?

Wenn Du mehr dazu erfahren möchtest, wie Du Deine Sichtbarkeit in der KI-Suche optimieren kannst: die nächsten Termine für meine GEO Schulung sind: 18.12.2025 (es gibt noch 2 Restplätze) und 16.01.2026.

Den ganzen Beitrag findest Du hier auf LinekdIn: Sichtbarkeit in KI Suche

„KI versteht mich doch gar nicht – oder?“
Genau. Tut sie nicht. Oder doch?

Wie funktioniert Tokenisierung?

Wenn du mit ChatGPT chattest, liest da niemand deine Wörter. Stattdessen werden sie zerhackt, in Tokens zerlegt und in Zahlen übersetzt.

„Künstliche Intelligenz“ wird zu [„Künst“, „liche“, „ĠIntel“, „ligenz“], oder auch anders, je nachdem.

Klingt nach Kleinkram? Ist es nicht.

Tokens sind der Schlüssel

Denn Tokens sind der Schlüssel dazu, wie KI überhaupt mit Sprache arbeiten kann. Ohne sie: kein ChatGPT. Mit ihnen: ein Modell, das Milliarden Texte „gelesen“ hat ohne ein Wort davon zu verstehen.

KI lernt nicht Bedeutung, sondern optimiert Wahrscheinlichkeiten

Was dann passiert? Statistik. Das Modell lernt nicht Bedeutung, sondern optimiert Wahrscheinlichkeiten. Nach „Die Katze sitzt auf der …“ kommt halt öfter „Decke“ als „Gabel“. Ganz einfach.

Und das kann die KI so gut, dass es wie Verständnis wirkt. Wir schreiben ihr Gefühle zu, diskutieren mit ihr, vermenschlichen sie vielleicht sogar ein wenig und vergessen dabei fast, dass dahinter nur Berechnungen stehen.

In diesem Carousel zeige ich dir, wie aus Buchstaben Datenwissen wird und warum du das wissen solltest, wenn du mit KI arbeitest.

Hier geht es zum Beitrag auf LinkedIn, in dem Du in meinem Carusel (PDF zum download) erfährst: was Tokens sind und wie Tokenisierung funktioniert