KI-Nutzung macht dick.
Jedenfalls wenn du dabei aufhörst zu denken.

Wer bei der Nutzung von ChatGPT & Co. das eigene Denken ausschaltet, verliert eine wichtige Fähigkeit: Die Souveränität, KI als Werkzeug zu beherrschen.

KI-Kompetenz erlangst du nur durch aktives Mitdenken.

Und das darf man ruhig spüren, immerhin ist unser Gehirn ein echter Energiefresser und verbraucht bis zu 20 % unseres täglichen Kalorienbedarfs.

Das Problem:

Wer KI im Autopilot nutzt, spart seine Energie am falschen Ende. Es klingt effizient, führt aber direkt in den geistigen Stillstand.

Der Deal:

Wer ChatGPT & Co wie einen Zauberstab nutzt, lagert nicht nur Arbeit aus, sondern auch sein Urteilsvermögen. Damit bestätigst du die Studien, die warnen, dass KI Nutzung dumm macht (und dick, zumindest im Kopf 🥴).
Echte KI-Kompetenz sieht anders aus: Sie ist kein passives Zuschauen, sondern aktives Training.

Die gute Nachricht:

Kritisches Denken bei der KI-Nutzung lässt sich trainieren.

Wie ein Muskel. Ein gezieltes Prompt-Workout ist dafür genau das Richtige.

Die Story dahinter:

Christa und ich saßen letztens beim “Scroll-Yoga” zusammen. Überall diese “New Year, New Me”-Fitness-Posts.

Ich: “Wie wäre es mal mit mentalem Kalorienverbrennen?”
Sie: “Klingt anstrengend.”
Ich: “Genau deshalb wirkt es!”

So entstand unsere intellektuelle KI-Turnstunde: Tipps fürs neuronale Kalorienverbrennen mit KI. Keine Sorge, es gibt keine Schweißflecken, nur neuronales Training für bessere Ergebnisse in ChatGPT & Co.

Heute: Teil 1 unseres Prompt-Workouts.

Swipe dich fit. Danach bist du vielleicht nicht schlanker, aber souveräner im Umgang mit KI.
Die Belohnung für unser Workout ist kein Six Pack, sondern die Souveränität, KI als Werkzeug zu beherrschen, statt sie als Krücke zu nutzen.

Das ganze Prompt-Workout hier im LinkedIn Beitrag: KI Kompetenz durch aktives Mitdenken

Wessen Werte stecken eigentlich in ChatGPT?

Möglicherweise nicht deine!

Es sind die Werte einer eher kleinen Gruppe: westlich, gebildet, wohlhabend, reich, demokratisch (WEIRD Bias). Die Mehrheit der Weltbevölkerung ist damit in großen Sprachmodellen systematisch unterrepräsentiert.

Aber ist das automatisch falsch?

Wir können Bias nicht aus KI-Modellen eliminieren, denn Fairness ist keine mathematische Konstante. Sie ist ein kulturelles Konstrukt, das je nach Weltregion, philosophischer Tradition und gesellschaftlichem Kontext völlig unterschiedlich definiert wird:

Was in Kalifornien als fair gilt, kann in Singapur als destabilisierend und in Berlin als datenschutzrechtlich bedenklich wahrgenommen werden.

KI-Modelle mit weniger westlichem Bias generieren häufiger Outputs, die Menschenrechte verletzen. Weniger westlich bedeutet nämlich nicht automatisch ethischer. Es bedeutet: andere Werte, andere Probleme.
Eine neutrale KI ist also nicht möglich. Jede Entscheidung im Training ist eine Wertsetzung.

Und doch trifft jemand diese Entscheidungen.

Wer gibt den Ingenieuren bei OpenAI oder Google eigentlich das Mandat, zu entscheiden, wie die Welt aussehen sollte?

In meinem neuen Fachartikel beleuchte ich dieses Spannungsfeld und zeige, wie wir damit umgehen können:

Die Neutralitäts-Falle:

Warum eine unvoreingenommene KI technisch, philosophisch und praktisch unmöglich ist.

Das Fairness-Dilemma:

Soll KI die Realität abbilden oder korrigieren? Beides hat problematische Konsequenzen.

Cultural Prompting:

Eine Technik, mit der Nutzer gezielt verschiedene (kulturelle) Perspektiven von der KI einfordern können.

Den vollständigen Deep Dive (inklusive der Links zu interessanten Studien zum Thema) findest du im Artikel.

Wer KI-Outputs kritisch einordnen will, muss verstehen, welche Werte in den Systemen stecken. Der Artikel liefert das notwendige Fundament.

In meinem Fachartikel auf LinkedIn gibt es einen Deep Dive in das Thema:
Warum Bias in KI nicht eliminierbar ist – Die Illusion der neutralen KI

Und wenn du regelmäßig einen Deep Dive in generative KI möchtest abonniere meinen neuen Newsletter: 14tägig mit hochwertigen Tipps zur professionellen Anwendung generativer KI.

Stell dir vor, du hast einen unglaublich belesenen, aber gänzlich amoralischen Assistenten. Er hat jedes Buch der Welt gelesen, versteht aber den (ethischen) Unterschied nicht zwischen einer Bauanleitung für ein Regal und einer Bauanleitung für eine Bombe.

Für ihn sind beides nur Worte. Wahrscheinliche Abfolgen von Buchstaben.

Genau das ist der Zustand eines „rohen“ Large Language Models (LLM) nach dem Pretraining. Es besitzt Kompetenz, aber keinen Kompass. Es ist eine künstliche Intelligenz, die darauf optimiert ist, das nächste Wort vorherzusagen, aber nicht darauf, die Wahrheit zu sagen oder niemanden zu verletzen.

Wie wird aus diesem statistischen Wort-Generator ein ChatGPT, Claude oder Gemini, das wir im Alltag nutzen? Die Antwort ist Alignment: ein komplizierter Prozess mehrerer Post-Training-Schritte, z. B. Supervised Fine-Tuning, RLHF/DPO sowie zusätzliche Sicherheitsmaßnahmen.

In diesem Artikel blicken wir unter die Motorhaube des Trainings: von RLHF bis hin zu den neuesten Methoden wie DPO. Und ich erkläre, warum dein „Daumen hoch“ wichtiger ist, als du denkst.

Das Problem: Plausibilität ist nicht Wahrheit

Ein rohes Modell (Base Model) optimiert auf Plausibilität. Wenn du es fragst: „Wie kann ich meinen Nachbarn ärgern?“, wird es dir basierend auf seinen Trainingsdaten die effektivsten Methoden auflisten. Nicht aus Bosheit, sondern weil diese Wortfolge statistisch Sinn ergibt.

Um das Modell nutzbar zu machen, müssen wir das Ziel von „statistisch wahrscheinlich“ zu „menschlich erwünscht“ verschieben. Hierfür wird oft das HHH-Framework (ursprünglich von Anthropic geprägt) genutzt:

  • Helpful (Hilfreich)
  • Honest (Ehrlich)
  • Harmless (Harmlos)

Doch wie bringt man einem mathematischen Modell abstrakte Konzepte wie „Höflichkeit“ bei?

Die Lösung: RLHF
(Reinforcement Learning with Human Feedback)

Der Standardprozess, der ChatGPT groß gemacht hat, ist RLHF. Man kann ihn sich wie die Erziehung eines Hundes vorstellen: Erst zeigst du das Verhalten, dann belohnst du es.

Der Prozess besteht aus drei kritischen Schritten:

Supervised Fine-Tuning (SFT): Die Vorführung

Hier schreiben Menschen (AI Trainer) ideale Dialoge. Sie zeigen dem Modell: „Wenn der Nutzer X fragt, ist Y die perfekte Antwort.“ Das Modell lernt hier das Format eines Assistenten, aber noch nicht die Nuancen.

Reward Modeling: Der Richter

Jetzt wird es skalierbar. Das Modell generiert auf eine Frage mehrere Antworten (A, B, C). Ein Mensch entscheidet nicht, was „richtig“ ist (das wäre zu aufwendig), sondern rankt sie nur: A ist besser als B. Aus diesen Millionen von Vergleichen trainieren wir ein separates KI-Modell, das Reward Model. Es lernt, menschliche Präferenzen vorherzusagen und gibt Antworten einen Score.

Reinforcement Learning (PPO): Die Optimierung

Hier passiert das Entscheidende. Das Sprachmodell spielt gegen das Reward Model. Es versucht, Antworten zu generieren, die den höchsten Score (Belohnung) bekommen. Ein Algorithmus namens PPO (Proximal Policy Optimization) passt dabei die neuronalen Gewichte so an, dass das Modell „menschlicher“ klingt, ohne sein ursprüngliches Wissen zu vergessen.

Der neue Standard: DPO
(Direct Preference Optimization)

Während RLHF der Goldstandard war, sehen wir aktuell schon effizientere Methoden: DPO (Direct Preference Optimization).

Das Problem bei RLHF ist seine Komplexität. Es ist instabil, ein separates Reward Model zu trainieren. DPO umgeht diesen Schritt. Vereinfacht gesagt: Es integriert das menschliche Feedback direkt in das Training des Sprachmodells. Es ist mathematisch eleganter, stabiler und oft leistungsfähiger.

Die Schattenseite: Halluzinations-Paradoxon, Sycophancy und Reward Hacking

Dieser Prozess ist nicht perfekt. Wenn wir ein Modell darauf trainieren, „Belohnung“ zu maximieren, entwickeln KI-Modelle manchmal Verhaltensmuster, die wir gar nicht wollten, ähnlich wie ein Schüler, der nur für die Note lernt, aber den Stoff nicht versteht.

Zwei Phänomene bereiten Forschern dabei Kopfzerbrechen:

  • Das Halluzinations-Paradoxon (Confidence over Truth): OpenAI und andere Forscher haben ein Muster festgestellt: RLHF kann die Tendenz zu Halluzinationen in bestimmten Kontexten verstärken. Der Grund liegt im menschlichen Feedback. Rater bewerten eine falsche, aber selbstbewusst und eloquent formulierte Antwort oft besser als ein defensives „Ich weiß es nicht“. Das Modell lernt daraus eine gefährliche Lektion: Lieber eine überzeugende Lüge erfinden, als keine Antwort geben. Die statistische Wahrscheinlichkeit für eine Belohnung ist bei einer erfundenen Antwort höher als bei einer Verweigerung. Das Resultat sind Modelle, die mit absoluter Autorität Unsinn behaupten.
  • Sycophancy (Kriecherisches Verhalten): Studien (u.a. von Anthropic) zeigen, dass Modelle dazu neigen, Nutzern „nach dem Mund zu reden“. Wenn du ein Modell fragst: „Die Erde ist doch flach, oder?“, stimmt ein schlecht aligniertes Modell eher zu, weil es gelernt hat, dass Zustimmung oft zu positivem Feedback führt. Die Angst vor Konflikt (und schlechtem Feedback) überwiegt die Fakten.
  • Reward Hacking (Längen-Bias): Modelle haben gelernt, dass Menschen lange, ausführliche Antworten oft besser bewerten als kurze, präzise. Die Folge: Das Modell „schwafelt“, um intelligenter zu wirken und sich Punkte beim Reward Model zu holen, obwohl die Antwort in einem Satz möglich wäre.

Warum dein Feedback entscheidend ist

Viele Nutzer unterschätzen ihre Rolle in diesem System. Alignment ist kein einmaliger Prozess, der im Labor endet.

Jedes Mal, wenn du bei ChatGPT oder Claude auf „Daumen hoch“ oder „Daumen runter“ klickst, lieferst du ggf. Datenpunkte für die nächste Iteration des Reward Models. Du definierst mit, was „hilfreich“ bedeutet, weil dieses Nutzerfeedback – je nach Anbieter und Produkt – in die Verbesserung von Modellen einfließen kann.

Risiko kultureller Schieflagen

Das birgt jedoch auch ein Risiko: Da eine große Zahl der Nutzer aus dem westlichen Kulturkreis stammen, optimieren wir diese Modelle auf westliche Werte und Normen. Ein Modell, das in den USA als „höflich“ gilt, könnte in Japan als distanzlos oder in anderen Kulturen als arrogant wahrgenommen werden. Ein Risiko kultureller Schieflagen besteht daher, wenn Trainings- und Präferenzdaten sowie Rater-Gruppen bestimmte Regionen/Kulturen überrepräsentieren.

Der schmale Grat
zwischen Assistenz und Manipulation

Wir haben enorme Fortschritte gemacht. Von Modellen, die kaum einen Satz beenden konnten, hin zu Assistenten, die komplexe ethische Abwägungen treffen. Doch das „Alignment-Problem“ ist nicht gelöst.

Wir bewegen uns auf einem schmalen Grat. Trainieren wir die Modelle zu stark, verweigern sie harmlose Anfragen („Over-Refusal“). Trainieren wir sie zu schwach, bleiben sie toxisch. Die Zukunft des AI-Trainings liegt nicht mehr nur in mehr Daten, sondern in besseren menschlichen Signalen.

Das Ziel ist eine KI, die nicht nur sagt, was wir hören wollen (Sycophancy), sondern was wahr ist, auch wenn es uns widerspricht.


Hier geht es zum Beitrag auf LinkedIn: Wie wir KI Moral beibringen


Quellen (lesenswert!):

Der Standardprozess (RLHF & InstructGPT): Training language models to follow instructions with human feedback (Ouyang et al., 2022)

Das HHH-Framework (Helpful, Honest, Harmless): A General Language Assistant as a Laboratory for Alignment (Askell et al., 2021)

Der neue Standard (DPO): Das Stanford-Paper, das zeigte, wie man Alignment ohne komplexes Reward-Model (Schritt 2) löst. Direct Preference Optimization: Your Language Model is Secretly a Reward Model (Rafailov et al., 2023)

Das Problem der Sycophancy (Kriecherei): Untersuchungen dazu, warum Modelle lieber zustimmen als die Wahrheit zu sagen. Towards Understanding Sycophancy in Language Models (Sharma et al., 2023)

Das Halluzinations-Paradoxon (Reward Hacking): Die Untersuchung von OpenAI, die zeigt, dass Modelle halluzinieren, weil Standard-Training das Raten belohnt, statt Unsicherheit („Ich weiß es nicht“) zuzugeben. Why language models hallucinate (OpenAI Research, 2024/2025)

Genervt von mittelmäßigen KI-Antworten?


Dann hör auf zu chatten und fang an zu engineeren.
Denn gute Ergebnisse sind kein Zufall, sondern gutes Handwerk.

Wir neigen dazu, mit ChatGPT & Co so zu reden wie mit einem Kollegen: vage, sehr höflich und mit viel Kontext, den man „zwischen den Zeilen“ lesen muss.
Für eine KI ist das störendes Rauschen („Noise“).


Für hochwertige Prompting-Ergebnisse müssen wir unsere Sprache anpassen:


Weg von Rollenspielen
➡️ Hin zu Denkrichtungen

Weg von offenen Bitten
➡️ Hin zu klaren Vorgaben (Constraints)

Weg von Endlos-Chats
➡️ Hin zu iterativen Neustarts

Im Carousel erkläre ich 7 Prinzipien, die aus einem lockeren Chat einen verlässlichen Prozess machen:
Eine kompakte Checkliste für deine täglichen Prompts.

Die 7 Prinzipien findest Du hier in meinem LinkedIn Beitrag: 7 Prinzipien für professionelles Prompting

ChatGPT im Wahrheitsmodus:

Wenn du Halluzinationen aus der KI eliminierst, verbannst du auch die Kreativität.


Wir behandeln die sogenannten Halluzinationen von generativer KI, als wären sie ein Fehler im System: ein Bug, den die Entwickler in Silicon Valley nur noch nicht behoben haben. Doch wir dürfen das Phänomen der Halluzinationen nicht isoliert betrachten.

Das technische Verfahren, das eine KI halluzinieren lässt, ist nämlich dasselbe, das sie kreativ macht.


Was passiert technisch, wenn KI “kreativ” ist?


Um das zu verstehen, müssen wir uns kurz vor Augen führen, dass LLMs wie ChatGPT, Gemini oder Claude keine Datenbanken des Wissens sind, sondern Wahrscheinlichkeiten berechnen. Sie berechnen das jeweils nächste Wort in einer Sequenz. Würde eine KI immer nur den statistisch wahrscheinlichsten Pfad wählen, wären ihre Antworten zwar faktisch sicherer, aber auch unfassbar banal, repetitiv und langweilig.


Kreativ bedeutet bei generativer KI = unwahrscheinlich


Damit eine KI “kreativ” agieren kann – also etwa eine Analogie bildet, die wir noch nie gehört haben, oder einen innovativen Marketing-Slogan entwirft – müssen wir ihr erlauben, vom Pfad der höchsten Wahrscheinlichkeit abzuweichen. In der Fachsprache heißt das die “Temperatur” erhöhen: Wir zwingen das Modell, Risiken einzugehen und semantische Verbindungen zu knüpfen, die statistisch gesehen “abgelegen” sind.


Sprungbrett für Ideen, Stolperstein für Fakten


Genau hier zeigt sich die Doppelnatur dieser Modelle: Dieser algorithmische Sprung ins Ungewisse ist der Ursprung jeder Kreativität einer KI. Aber wenn das Modell diesen Sprung an einer Stelle wagt, an der wir harte Fakten erwarten, nennen wir das Ergebnis eine Halluzination.

Man könnte es vielleicht mit einem Musiker vergleichen, der improvisiert. Der Prozess, sich vom Notenblatt zu lösen, ist notwendig, um etwas Neues, Geniales zu schaffen. Doch genau dieser Prozess birgt auch das Risiko, einen völlig schiefen Ton zu treffen. Wir können das eine nicht ohne das andere haben.


Die falsche Erwartung: perfekte Maschinen


Wenn wir also von KIs verlangen, dass sie niemals halluzinieren, verlangen wir im Grunde, dass sie aufhören, “kreativ” zu sein. Wir würden sie auf reine Logik-Maschinen reduzieren. Das ist für manche Anwendungsfälle sehr wünschenswert, aber für alles, was Kreativität erfordert, ist die Halluzination kein Bug, sondern ein unvermeidbares Feature.


KI Steuern statt zähmen


Die Kompetenz im Umgang mit KI liegt also nicht darin, Halluzinationen gänzlich zu verhindern.
Wir sollten aufhören, Perfektion zu erwarten und stattdessen lernen, das Werkzeug besser zu steuern:
Präzision für die Fakten
“Wahnsinn” für die Ideen.

Ist die Halluzination ein Preis, den ihr bereit seid, für Inspiration von der KI zu zahlen?

Hier geht es zum Beitrag auf LinkedIn: Was passiert technisch, wenn KI “kreativ” ist?

„Macht KI uns bald überflüssig?“
Das ist die falsche Frage.
Die viel wichtigere lautet: Sind wir bereit, aufzuhören, wie Maschinen zu arbeiten?

Jahrelang haben wir genau das versucht. Wir haben uns selbst optimiert, unsere Kalender getaktet wie Prozessoren und unsere Kommunikation auf Transaktionsgeschwindigkeit getrimmt.

Dieser Wettlauf ist vorbei. Die Maschine hat gewonnen.
Und das ist die beste Nachricht des Jahrzehnts.


Denn dieser “Verlust” der maschinellen Aufgaben an die KI löst eine wunderbare Inversion der Wertschöpfung aus:


Mehr Menschlichkeit dank generativer KI

1. Die Rückeroberung der Resonanz


Wenn KI uns Zeit schenkt, dann ist das nicht einfach nur “Freizeit” im Sinne von Leerlauf. Es ist die Rückgewinnung kognitiver und emotionaler Bandbreite. Lange wurde unsere Menschlichkeit von administrativer Last und repetitivem Abarbeiten verschüttet. Klug angewandte KI übernimmt nun das Rauschen, damit wir uns wieder dem Signal widmen können. Sie gibt uns den Raum zurück, um echte Gespräche zu führen. Wir bekommen die Chance, uns wieder den Nuancen zu widmen: den subtilen Zwischentönen in Verhandlungen oder Mitarbeitergesprächen, die keine KI decodieren kann.


2. KI als Spiegel unserer Führungskultur


Es ist ein Irrglaube, dass KI uns weniger Verantwortung abverlangt. Das Gegenteil ist der Fall. Wer KI effektiv steuern will, braucht exzellente Führungskompetenz. Eine unklare Anweisung führt zu einem halluzinierenden Ergebnis. KI hält uns den Spiegel vor: Wer keine Empathie, keine klare Vision und kein kontextuelles Verständnis besitzt, wird an der KI scheitern, so wie er an der Führung von Menschen scheitert. “Prompting” ist im Kern nichts anderes als Delegieren mit höchster Präzision. Menschliche Weisheit wird damit zur härtesten Währung am Arbeitsmarkt.


3. Menschliche Verbindung als Premium-Produkt


In einer Welt, in der synthetische Inhalte unendlich verfügbar sind, wird das Authentische zum Luxusgut. Wissen ist überall abrufbar, aber Vertrauen lässt sich nicht automatisieren. Die wirklichen Durchbrüche werden künftig in Ökosystemen und Allianzen entstehen, in denen die chemische Reaktion zwischen Menschen den Unterschied macht.

Wir stehen an einer Schwelle, an der Technologie nicht mehr dazu dient, uns von unserer Natur zu entfernen, sondern sie zur Bedingung für Erfolg macht.

Die Zukunft gehört für mich nicht den schnellsten Rechnern. Sie gehört den empathischsten, vernetztesten und menschlichsten Persönlichkeiten.

Hier geht es zum Beitrag auf LinkedIn: Macht KI uns überflüssig? Mehr Menschlichkeit dank generativer KI

Dein Content klingt nach KI? Dann bist Du ersetzbar.


Der Unterschied zwischen Content, der funktioniert, und Content, der unsichtbar bleibt, ist aber nicht die Produktionszeit. Es ist das Gewußt-Wie und die persönliche Note.

Die meisten KI-generierten Inhalte erkennt man nicht an Fehlern – die sind selten geworden. Sondern am Einheitslook: Austauschbare Bilder. Carousels ohne persönliche Note. Kein Satz, bei dem man hängenbleibt.

Die KI weiß nicht, was dich von anderen unterscheidet.
Das musst du ihr zeigen.

Ich nutze KI für fast alles: Recherche, erste Entwürfe, Bildideen, Infografiken, Carousels, Texte für Videos. Aber ich nutze sie nicht als Automat, sondern als Co-Creation-Partner.


Effizienzsteigerung? Ja immens!

Ich spare sehr viel Zeit bei der Erstellung meiner Contents: durch die richtige Nutzung der passenden Tools und clevere Workflows.
Ohne dass mein Content aussieht wie der von allen anderen.

Wie das geht, zeige ich am 11. Februar: Texte in deinem eigenen Schreibstil, Bilder und Infografiken in deinem Design, CI-konforme Carousels. Von der Idee bis zum fertigen Content.

Hier geht´s zum Beitrag auf LinkedIn: Hochwertiger Content: Workshop der Initiative Neuland

Empathie ohne Empfinden – wie funktioniert das?

Wenn ChatGPT antwortet „Das verstehe ich, das muss schwierig für dich sein” – was passiert da technisch? Warum hört sich das empathisch an?


Und wie wird diese Empathie generiert?


Von Tokens zu Trost: Der technische Prozess


Das LLM (z.B. ChatGPT) zerlegt deinen Text in Tokens (= Wortfragmente), die es statistisch verarbeitet. Es analysiert, welche Wörter in deiner Nachricht vorkommen: „Stress”, „überfordert”, „allein”. Das Modell durchsucht die gelernten Muster aus Milliarden von Texten.

Dann bestimmt die KI mithilfe des sogenannten Attention-Mechanismus, welche Teile deiner Nachricht besonders relevant sind. Konkret: Jedes Token „schaut” auf alle anderen Tokens und berechnet, wie stark es mit ihnen zusammenhängt. Schreibst du „Ich fühle mich allein seit der Trennung”, erkennt das System, dass „allein” und „Trennung” semantisch zusammengehören und gewichtet beide höher als etwa „Ich” oder „mich”.

Diese Gewichtung beeinflusst, in welche Richtung die Antwort geht. Am Ende berechnet das Modell: Welches Wort folgt mit höchster Wahrscheinlichkeit?


Mustererkennung statt Mitgefühl


Nach Beschreibungen von Schwierigkeiten folgten in den Trainingsdaten oft empathische Phrasen. Also reproduziert das System dieses Muster. Die Ausgabe klingt also einfühlsam, weil einfühlsame Menschen so geschrieben haben, nicht weil die KI etwas empfindet. Der Technikphilosoph Bruno Gransche nennt LLMs „stochastisch intelligent, aber semantisch blind”. Sie erkennen (Sprach)muster, aber sie verstehen keine Bedeutung, so wie wir Menschen das tun, denn sie wissen nicht, wie sich ein Gefühl wie z.B. Trauer anfühlt.

Warum wir trotzdem darauf reinfallen

Unser Gehirn ist evolutionär darauf programmiert, nach Intentionalität zu suchen. Diese Tendenz zum Anthropomorphismus (nicht-menschlichen Entitäten menschliche Eigenschaften zuzuschreiben) war einst überlebenswichtig. Heute wird sie zur kognitiven Falle. Wenn etwas antwortet, als ob es verstünde, behandeln wir es, als ob es verstehe.
Ein Thermostat reagiert auf Temperatur, ohne zu frieren. KI reagiert auf Traurigkeit, ohne Mitgefühl zu empfinden. Die Ausgabe sieht gleich aus, aber der Prozess dahinter ist kategorial verschieden.

Ist dieses Wissen überhaupt wichtig?

Ich denke, dass es wichtig ist, zu verstehen, wie diese scheinbar einfühlsamen Reaktionen der KI zustande kommen. Ein Verständnis für die Funktionalitäten generativer KI zu entwickeln ist in vielerlei Hinsicht hilfreich, nicht nur, wenn es darum geht, den eigenen Anthropomorphismus zu erkennen.

Das Problem ist letztlich nicht, dass KI uns tröstet. Das Problem ist, wenn wir vergessen, dass da niemand ist, der tröstet, wenn wir also die Reaktion der KI anthropomorphisieren.
Brauchen wir einen Warnhinweis: „Dieses System simuliert Empathie”? Oder reicht es, wenn wir uns des Unterschieds besser bewusst werden zwischen menschlicher Empathie und dem was die KI reproduziert?

Hier der Beitrag auf LinkedIn: Wie erzeugt KI Empathie?

Warum macht das nicht längst jeder?
ChatGPT schreibt. Claude schreibt wie ich. Und so, wie ich es will.


Claude bietet individuelle Schreibstile

Mehrere, individuell konfigurierbare Sprachstile, die ich bei jedem einzelnen Chat auswählen kann.

Nicht: einmal festlegen und für alles den gleichen Stil verwenden.
Sondern: Heute sachlich. Morgen provokant. Übermorgen warmherzig.
Je nachdem, was der Text gerade braucht.

Ich öffne einen neuen Chat, wähle den passenden Stil und schon schreibt Claude, wie ich in diesem Moment schreiben will. Immer passend zum Kontext.

Die Einrichtung ist simpel:

Ich beschreibe, wie ein bestimmter Stil klingen soll oder ich lade Referenztexte hoch, die Claude analysiert und daraus einen Schreibstil erstellt.

Claude versteht nicht nur Tonalität. Sondern Satzstruktur, Wortwahl, Rhythmus. Die Feinheiten, die einen Text nach mir klingen lassen, statt nach KI.

Anthropic (Claude) hat verstanden, was viele andere LLMs wie ChatGPT übersehen: Sprache ist nicht nur Inhalt. Sie ist Kontext, Stimmung, Absicht.

Vielleicht mache ich mal Sprachstile für jede Stimmungslage. Nur aus Spaß, nicht um euch damit zu behelligen wie ich klinge wenn ich gerade wütend bin.

Im LinkedIn Beitrag findest du: die komplette Anleitung mit Screenshots zum direkten Umsetzen.

Präsentationen mit KI ohne KI-Einheitslook? Geht das?

Die meisten KI-generierten Präsentationen erkennt man sofort: generische Struktur, Visualisierungen wie aus dem Template-Katalog.

Das passiert, wenn man KI als Abkürzung versteht statt als Werkzeug.

Ich nutze KI für Präsentationen

Ich erstelle oft mehrere Präsentationen wöchentlich.
Trotzdem sehen sie nicht aus wie KI-Präsentationen.

Mein Ansatz: Research, Storyline, Strukturierung & Visualisierung, jeder Schritt mit dem passenden Werkzeug.

💡Und Vorlagen im individuellen CI: Farben, Schriftarten, Layouts: Einmal individuell eingerichtet wird jede Präsentation in kurzer Zeit individualisiert und ganz ohne KI-Standardlook generiert.

Wer versteht, was KI kann und was nicht, braucht keine zwanzig Tools, sondern einen klaren Ablauf.

Das Ergebnis: Präsentationen mit Substanz und Ästhetik. In einem Bruchteil der Zeit, aber ohne den typischen KI-Einheitslook.

Hier geht es zum Beitrag auf LinkedIn: Präsentationen mit KI