Du willst bessere Ergebnisse aus generativer KI rausholen?

Dann lohnt sich ein Blick auf Markdown.

Markdown ist eine simple Methode, Text zu formatieren: Zwei Sternchen um ein Wort? Fettdruck. Eine Raute vor einer Zeile? Überschrift. So einfach ist es. Wer diese einfache Sprache beherrscht, bekommt klarere und strukturiertere Antworten von ChatGPT & Co.

Dabei hat Markdown einen entscheidenden Vorteil: Es ist lesbar für Menschen UND Maschinen. Während Word-Dokumente komplexe Binärdaten nutzen, ist Markdown purer Text. KI kann ihn ohne Umwege direkt verarbeiten, da die Modelle Markdown strukturell interpretieren können, ohne Konvertierung oder Formatierungslogik.

Braucht KI zwingend Markdown?

Nein. Aber Markdown hilft der KI, Informationen konsistent zu strukturieren und erleichtert Parsing durch Tools oder Agents, die das Modell-Output weiterverarbeiten.

Ein Beispiel: Wenn du schreibst “Nenne mir die Vor- und Nachteile”, könnte die KI dir Fließtext, eine Tabelle oder eine Aufzählung liefern. Wenn du dagegen

##Vorteile
– …

##Nachteile

– …

vorgibst, bekommst du genau zwei saubere Listen mit Überschriften.

Warum funktioniert das so gut? KI-Modelle wie GPT wurden mit Millionen Markdown-Dokumenten trainiert. Sie “sprechen” Markdown fließend.

Markdown für präzise Prompts

Besonders wichtig: Markdown ist nicht nur für Outputs nützlich, sondern macht auch deine Prompts präziser. Gerade in Systemprompts, Custom GPTs oder Claude Projects sorgt es für konsistente Strukturen.

Übrigens ist auch für LinkedIn formatierter Texte nicht direkt zugänglich: Wenn du die wichtigsten Passagen im Post fett formatierst läufst du Gefahr, dass genau dieser wichtige Text im Algomithmus keine Berücksichtigung findet. Warum das so ist zeige ich im Carousel. Leider setzt LinkedIn auch kein Markdown um.

Im Carousel bekommst du eine Übersicht über die wichtigsten Markdown Befehle und ich zeige dir, wann Markdown bei KI wirklich Sinn macht und wann nicht.

Hier geht es zum Beitrag auf LinkedIn: Markwown: Die Sprache der KI

„Zeig mir 04:35 Uhr” klingt einfach. Ist für eine Bild-KI aber ein Problem.

Warum? Die Antwort verrät viel über die Funktionsweise generativer KI.

Die Screenshots im Carousel zeigen die Ergebnisse meiner Tests: Die Zeiger stehen selten da, wo sie sollen, Ein volles Weinglas ist selten voll.

Aber warum eigentlich?

Wie funktioniert ein KI Bildgenerator: Diffuionmodell

Bildgeneratoren funktionieren komplett anders, als viele denken. Sie „verstehen” keinen Prompt. Sie haben während des Trainings Millionen Bilder von Uhren gesehen und dabei gelernt, wie Uhren AUSSEHEN (Ziffernblatt, Zeiger, Gehäuse, Zahlen). Was sie nicht gelernt haben: Was eine bestimmte Uhrzeit BEDEUTET. Dass 14:35 heißt, der große Zeiger steht auf der 7 und der kleine kurz vor der 3. Das ist für ein Diffusion Model unsichtbar.

Noch verrückter: Weil Uhren in Werbung und Produktfotos fast immer 10:10 Uhr zeigen (das symmetrische „V” rahmt das Logo ein), sind die Trainingsdaten massiv in diese Richtung verzerrt. Die KI hat also nicht nur kein Verständnis von Zeit, sie hat auch noch einen eingebauten Bias Richtung 10:10 Uhr.

Im Carousel erkläre ich Slide für Slide, was da technisch passiert, vom Training über Embeddings bis zu den Grenzen der aktuellen Architektur.

Das Uhr-Problem verrät darüber hinaus ziemlich viel darüber, wo KI-generierte Bilder insgesamt ihre Schwächen haben.

Hier geht es zum Beitrag auf LinkedIn: Wie funktioniert KI Bilidgenerierung?

Du postest regelmäßig auf Social Media aber der Content klingt irgendwie immer gleich? 😉

Am 1. & 2. Juli halte ich auf den Social Media Days von ZIEHL-ABEGG einen Vortrag und zwei Workshops. Und alle drei drehen sich um die Frage:

Wie wird KI zum leistungsfähigen Kreativpartner für Social Media ❓
Und du kannst dabei sein!

🎤 Vortrag: „KI, Reichweite und Verantwortung”

Warum Ethik kein Bremsklotz ist, sondern der Unterschied zwischen Content, der performt, und Content, der Vertrauen zerstört.


🛠 Workshop „Präsentationen und Carousels mit KI”

Layouts in Minuten, Bilder direkt generiert, CI-konform und ohne Baukastensystem-Look. Schluss mit stundenlanger Fummelei an Slides.

🛠 Workshop „Creative Prompting für Social Media”

Fortgeschrittene Prompting-Techniken für packende Stories und überzeugende Visuals. Nicht das übliche „Schreib mir einen LinkedIn-Post”, sondern Strategien, mit denen ChatGPT & Co. wirklich abliefern.

Ich freue mich riesig darauf, diese zwei Tage mitzugestalten. Auf den fachlichen Austausch, auf neue Perspektiven und auf Menschen, die Social Media nicht einfach nur machen, sondern besser machen wollen.

Weitere Workshops, auf die ihr euch freuen dürft:

Die wunderbare Maray Paul mit einem Workshops für Einsteiger im Bereich KI Video: Wie wird aus einer Idee ein funktionierender KI-Kurzclip?

LinkedIn Expertin Cordula Frandsen: LinkedIn für Fortgeschrittene -Strategie schärfen und Performance steigern.

Werbefilm-Regisseur Julian Hoß: Content Creation mit dem Smartphone – wie du einfach, effektiv und ohne großes Budget richtig guten Content produzierst.

und viele viele mehr.

Hand aufs Herz: Wie viel eures Social-Media-Contents entsteht mittlerweile mit KI-Unterstützung? Und seid ihr zufrieden mit dem Ergebnis?

Social Media Days 2026
📅 1. & 2. Juli 2026
🎫 Jetzt Early Bird Ticket holen und Platz in einem meiner Workshops sichern
➡️ Wie wichtig sind für euch Netzwerkveranstaltungen?
➡️ Wie wichtig ist euch Weiterbildung? Insbesondere zum Thema KI?
Hashtag#socialmediadaysZA

Hat dich OpenAI auch schon gefragt, ob du deine Kontakte in ChatGPT importieren möchtest?
ChatGPT wird zum Social Network.

Hier wird kein KI-Chatbot mehr entwickelt. OpenAI baut eine Plattform. Mit Social Graph, Profilbildern, Follower-Funktionen und algorithmischem Feed.

800 Millionen wöchentliche Nutzer, Gruppenchats und eine TikTok-Klon-App. Und seit ein paar Tagen: Kontakt-Sync, bei dem deine Freunde deine Telefonnummer an OpenAI weitergeben können, ohne dass du gefragt wirst.

Sam Altman hat wohl das Playbook von Facebook 2008 genommen und mit KI-Steroiden angereichert:

→ Gruppenchats, in denen ChatGPT entscheidet, wann es sich einmischt und wann es schweigt.

→ Sora, eine Social App, in der du Deepfakes deiner Freunde erstellen kannst (mit deren Einwilligung, versteht sich).

→ Kontaktimport in ChatGPT, der nach dem Prinzip funktioniert, das die EFF seit Jahren als Shadow Profiling kritisiert.

Die Strategie scheint klar: Wenn deine Freunde in ChatGPT sind, gehst du nicht mehr zu Claude oder Gemini. Der Lock-in entsteht nicht durch das bessere Modell. Er entsteht durch den sozialen Graphen.

Meine private Telefonnummer landet in einer Umgebung, in der ich null Kontrolle darüber habe, was andere damit anstellen. Shadow Profiles plus eine Plattform, auf der Millionen Menschen täglich unkontrolliert und unbedacht mit KI-Automatisierung spielen, weil die Agenten so beeindruckend sind. Das ist keine theoretische Sorge, das ist eine offene Flanke.

Was Anthropic dagegen macht, ist das genaue Gegenteil.

Während OpenAI in Richtung Consumer-Social-Plattform driftet, hat Anthropic diese Woche Cowork auf Windows gebracht: einen Desktop-Agenten, der auf deinem Rechner arbeitet, deine Dateien liest, Aufgaben parallel abarbeitet und über Plugins mit Slack, Notion und CRM-Systemen interagiert, das sich direkt in Excel u.v.m. integrieren lässt.

Die Frage ist aber offenbar nicht mehr: Welches KI-Modell ist besser?
Die Frage ist: für welche Zielsetzung werden diese Unternehmen optimieren?

OpenAI optimiert für Engagement, Reichweite und Nutzerbindung. Das Geschäftsmodell hinter Gruppenchats und Kontakt-Sync ist Wachstum um jeden Preis. 800 Millionen Nutzer müssen irgendwann monetarisiert werden.
Anthropic optimiert für Produktivität. Für Tasks, die abgearbeitet werden und für Outputs, die du für dein Business nutzt.

Zwei KI-Unternehmen. Zwei verschiedene Zukunftsvisionen.
Die eine Vision behandelt dich als User, der Engagement liefert. Die andere behandelt dich als Profi, der Ergebnisse braucht.

Wollt ihr ein KI gestütztes Social Network oder eine KI, die arbeitet?
Die nächste Frage, die euch ChatGPT stellt, ist vielleicht nicht mehr “Wie kann ich helfen?” sondern “Wen kennst du noch?”

————–
Hinweis: Ich nutze sowohl ChatGPT als auch Claude beruflich und kenne die Stärken beider Systeme. Aber die strategische Richtung, die sich hier abzeichnet, verdient eine offene Debatte.

Der Heilige Gral für GEO?
Nicht der einzige, aber ein wichtiges Puzzleteil: Die Groundingpage.

Ich folge Hanns Kronenberg schon lange und schätze seine fundierten Analysen zu SEO und GEO. Er hat das Konzept der Groundingpage geprägt und entwickelt: eine speziell strukturierte Faktenseite, die darauf ausgelegt ist, KI-Systemen (LLMs) eine „Basis der Wahrheit“ über dich oder dein Unternehmen zu liefern.


Warum ist eine Groundingpage so effektiv?


KI-Modelle halluzinieren weniger und zitieren präziser, wenn sie eine klar strukturierte, faktenbasierte Quelle finden, an der sie sich „festhalten“ können. Sie erden (grounden) ihr Wissen dort.

Die Hürde: „Klingt kompliziert! Wie erstelle ich eine solche Groundingpage?“

Viele schrecken vor der technischen Umsetzung oder dem Aufbau einer solchen Seite zurück. Deshalb habe ich für meine GEO-Schulung eine “Abkürzung” gebaut:


Das Custom GPT: Groundingpage generieren


Ich habe ein Tool entwickelt, mit dem du ohne Vorwissen deine eigene Groundingpage generieren kannst. Die generierten Inhalte kannst du ganz einfach Copy&Paste in deine Webseite übernehmen. Weitere Einstellungen, die vorgenommen werden müssen, damit die Groundingpage wirksam ist, zeige ich Schritt-für Schritt in der Schulung.

Aber:

Eine einzelne Seite macht noch keine Optimierung für die KI Suche.
Die Groundingpage ist ein Fundament, aber du brauchst das komplette Gebäude. Denn damit die KI dich als Autorität wahrnimmt, muss das gesamte digitale Bild stimmen.
Wir decken in der Schulung alles ab, was du über GEO wissen musst:

✅ Content-Strukturen: Wie du deine Webseite technisch und inhaltlich für KI-Crawler optimierst.

✅ Zitierwürdigkeit & Autorität: Strategien, um in ChatGPT, Perplexity & Co. als vertrauenswürdige Quelle priorisiert zu werden.

✅ LLM-Verständnis: Ein Blick in den „Wahrscheinlichkeitsraum“: wie KI-Modelle Zusammenhänge herstellen und wie du das aktiv steuerst.

✅ Validierung deiner Expertise: Wie du Inhalte so aufbereitest, dass sie von KI-Systemen als belegbarer Fakt und nicht als „Rauschen“ eingestuft werden.

Du bekommst also nicht nur die Groundingpage-”Abkürzung” sondern eine komplette GEO-Strategie.

Willst du dein digitales Fundament endlich KI-fest machen?
Sichere dir jetzt einen der Plätze für die nächsten Termine:
🗓️ Sa, 21.02.2026 🗓️ Fr, 06.03.2026

Hier findest du alle Details und die Buchung:

Lass uns dafür sorgen, dass die KI nicht mehr raten muss, wer du bist.

Wirst du von der KI empfohlen oder ignoriert?

Mache diesen Test:

Frag ChatGPT (oder ein anderes LLM) einfach mal nach Dir selbst oder deinem Unternehmen:

„Wer ist [Name] und was sind ihre / seine Kernkompetenzen?” oder
“Welche Leistungen bietet [Name oder Unternehmen] an?”

Das Ergebnis zeigt dir, ob die KI aus deinen Inhalten eine klare Entity (also ein konsistentes Bild) rekonstruieren kann, oder ob du in KI Systemen nicht gut sichtbar bist.

Denn die KI „sucht“ nicht wie klassisches Google nach Keywords. Sie betreibt Entity Linking: Sie versucht, deine Identität aus Website-Strukturen, LinkedIn-Signalen und Zitaten zusammenzusetzen.


Ist das Ergebnis vage oder fehlerhaft? Dann fehlt dir das GEO-Fundament:


-> Inkonsistenz: Deine Datenquellen widersprechen sich.
-> Mangelnde Zitierwürdigkeit: Deine Inhalte sind nicht so strukturiert, dass LLMs sie als Primärquelle nutzen können.
-> Fehlender Kontext: Die KI versteht zwar deine Wörter, aber nicht deine Autorität.

Die Folge: Du wirst in der KI-Suche bei relevanten Anfragen nicht empfohlen.

Generative Engine Optimization (GEO) ist die notwendige Erweiterung von SEO. Wir bauen hier keine Luftschlösser für Algorithmen, sondern eine digitale Struktur, die KI-Systeme verstehen und der sie vertrauen.

Eine Teilnehmerin meiner letzten Schulung sagte es so:

„Ich habe bei Kathrin Lückenga die Schulung SEO & GEO besucht – und selten so viel Substanz in so kurzer Zeit erlebt. Kathrin spannt den Bogen souverän: von technischem Fundament bis zu konkreten, sofort anwendbaren Schritten. Nichts bleibt abstrakt, alles greift ineinander.“

Willst du deine Sichtbarkeit in der KI-Suche gezielt steuern und als zitierwürdige Autorität gelistet werden?

In meiner GEO-Schulung bekommst einen klaren Handlungsplan. Wir gehen tief in die Strategien für Perplexity, Google AI Overviews und LLM-Citations (ChatGPT & Co):

✅ Content-Strukturen: So bereitest du Daten für LLMs technisch und inhaltlich auf.

✅ Strategische Hebel: Wie du die Wahrscheinlichkeit erhöhst, in den Antworten von ChatGPT, Perplexity & Co als Primärquelle zu erscheinen.

✅ Autoritäts-Signale: Welche Faktoren dazu führen, dass die KI dich als vertrauenswürdige Entität in deinem Fachbereich priorisiert.

✅ Validierung deiner Expertise: Wie du Inhalte so aufbereitest, dass sie von KI-Systemen als belegbarer Fakt und nicht als „Rauschen“ eingestuft werden.

✅ LLM-Verständnis: Ein Blick in den „Wahrscheinlichkeitsraum“: wie KI-Modelle Zusammenhänge herstellen und wie du das aktiv steuerst.

Die nächsten Termine: 🗓️ Sa 21.02.2026 🗓️ Fr 06.03.2026

Lass uns dafür sorgen, dass der nächste Test der KI genau das ausspuckt, was du wirklich tust.

Hier findest du weitere Informationen zur Schulung und kannst die Schulung direkt buchen: Zur GEO Schulung

KI-Nutzung macht dick.
Jedenfalls wenn du dabei aufhörst zu denken.

Wer bei der Nutzung von ChatGPT & Co. das eigene Denken ausschaltet, verliert eine wichtige Fähigkeit: Die Souveränität, KI als Werkzeug zu beherrschen.

KI-Kompetenz erlangst du nur durch aktives Mitdenken.

Und das darf man ruhig spüren, immerhin ist unser Gehirn ein echter Energiefresser und verbraucht bis zu 20 % unseres täglichen Kalorienbedarfs.

Das Problem:

Wer KI im Autopilot nutzt, spart seine Energie am falschen Ende. Es klingt effizient, führt aber direkt in den geistigen Stillstand.

Der Deal:

Wer ChatGPT & Co wie einen Zauberstab nutzt, lagert nicht nur Arbeit aus, sondern auch sein Urteilsvermögen. Damit bestätigst du die Studien, die warnen, dass KI Nutzung dumm macht (und dick, zumindest im Kopf 🥴).
Echte KI-Kompetenz sieht anders aus: Sie ist kein passives Zuschauen, sondern aktives Training.

Die gute Nachricht:

Kritisches Denken bei der KI-Nutzung lässt sich trainieren.

Wie ein Muskel. Ein gezieltes Prompt-Workout ist dafür genau das Richtige.

Die Story dahinter:

Christa und ich saßen letztens beim “Scroll-Yoga” zusammen. Überall diese “New Year, New Me”-Fitness-Posts.

Ich: “Wie wäre es mal mit mentalem Kalorienverbrennen?”
Sie: “Klingt anstrengend.”
Ich: “Genau deshalb wirkt es!”

So entstand unsere intellektuelle KI-Turnstunde: Tipps fürs neuronale Kalorienverbrennen mit KI. Keine Sorge, es gibt keine Schweißflecken, nur neuronales Training für bessere Ergebnisse in ChatGPT & Co.

Heute: Teil 1 unseres Prompt-Workouts.

Swipe dich fit. Danach bist du vielleicht nicht schlanker, aber souveräner im Umgang mit KI.
Die Belohnung für unser Workout ist kein Six Pack, sondern die Souveränität, KI als Werkzeug zu beherrschen, statt sie als Krücke zu nutzen.

Das ganze Prompt-Workout hier im LinkedIn Beitrag: KI Kompetenz durch aktives Mitdenken

Wessen Werte stecken eigentlich in ChatGPT?

Möglicherweise nicht deine!

Es sind die Werte einer eher kleinen Gruppe: westlich, gebildet, wohlhabend, reich, demokratisch (WEIRD Bias). Die Mehrheit der Weltbevölkerung ist damit in großen Sprachmodellen systematisch unterrepräsentiert.

Aber ist das automatisch falsch?

Wir können Bias nicht aus KI-Modellen eliminieren, denn Fairness ist keine mathematische Konstante. Sie ist ein kulturelles Konstrukt, das je nach Weltregion, philosophischer Tradition und gesellschaftlichem Kontext völlig unterschiedlich definiert wird:

Was in Kalifornien als fair gilt, kann in Singapur als destabilisierend und in Berlin als datenschutzrechtlich bedenklich wahrgenommen werden.

KI-Modelle mit weniger westlichem Bias generieren häufiger Outputs, die Menschenrechte verletzen. Weniger westlich bedeutet nämlich nicht automatisch ethischer. Es bedeutet: andere Werte, andere Probleme.
Eine neutrale KI ist also nicht möglich. Jede Entscheidung im Training ist eine Wertsetzung.

Und doch trifft jemand diese Entscheidungen.

Wer gibt den Ingenieuren bei OpenAI oder Google eigentlich das Mandat, zu entscheiden, wie die Welt aussehen sollte?

In meinem neuen Fachartikel beleuchte ich dieses Spannungsfeld und zeige, wie wir damit umgehen können:

Die Neutralitäts-Falle:

Warum eine unvoreingenommene KI technisch, philosophisch und praktisch unmöglich ist.

Das Fairness-Dilemma:

Soll KI die Realität abbilden oder korrigieren? Beides hat problematische Konsequenzen.

Cultural Prompting:

Eine Technik, mit der Nutzer gezielt verschiedene (kulturelle) Perspektiven von der KI einfordern können.

Den vollständigen Deep Dive (inklusive der Links zu interessanten Studien zum Thema) findest du im Artikel.

Wer KI-Outputs kritisch einordnen will, muss verstehen, welche Werte in den Systemen stecken. Der Artikel liefert das notwendige Fundament.

In meinem Fachartikel auf LinkedIn gibt es einen Deep Dive in das Thema:
Warum Bias in KI nicht eliminierbar ist – Die Illusion der neutralen KI

Und wenn du regelmäßig einen Deep Dive in generative KI möchtest abonniere meinen neuen Newsletter: 14tägig mit hochwertigen Tipps zur professionellen Anwendung generativer KI.

Stell dir vor, du hast einen unglaublich belesenen, aber gänzlich amoralischen Assistenten. Er hat jedes Buch der Welt gelesen, versteht aber den (ethischen) Unterschied nicht zwischen einer Bauanleitung für ein Regal und einer Bauanleitung für eine Bombe.

Für ihn sind beides nur Worte. Wahrscheinliche Abfolgen von Buchstaben.

Genau das ist der Zustand eines „rohen“ Large Language Models (LLM) nach dem Pretraining. Es besitzt Kompetenz, aber keinen Kompass. Es ist eine künstliche Intelligenz, die darauf optimiert ist, das nächste Wort vorherzusagen, aber nicht darauf, die Wahrheit zu sagen oder niemanden zu verletzen.

Wie wird aus diesem statistischen Wort-Generator ein ChatGPT, Claude oder Gemini, das wir im Alltag nutzen? Die Antwort ist Alignment: ein komplizierter Prozess mehrerer Post-Training-Schritte, z. B. Supervised Fine-Tuning, RLHF/DPO sowie zusätzliche Sicherheitsmaßnahmen.

In diesem Artikel blicken wir unter die Motorhaube des Trainings: von RLHF bis hin zu den neuesten Methoden wie DPO. Und ich erkläre, warum dein „Daumen hoch“ wichtiger ist, als du denkst.

Das Problem: Plausibilität ist nicht Wahrheit

Ein rohes Modell (Base Model) optimiert auf Plausibilität. Wenn du es fragst: „Wie kann ich meinen Nachbarn ärgern?“, wird es dir basierend auf seinen Trainingsdaten die effektivsten Methoden auflisten. Nicht aus Bosheit, sondern weil diese Wortfolge statistisch Sinn ergibt.

Um das Modell nutzbar zu machen, müssen wir das Ziel von „statistisch wahrscheinlich“ zu „menschlich erwünscht“ verschieben. Hierfür wird oft das HHH-Framework (ursprünglich von Anthropic geprägt) genutzt:

  • Helpful (Hilfreich)
  • Honest (Ehrlich)
  • Harmless (Harmlos)

Doch wie bringt man einem mathematischen Modell abstrakte Konzepte wie „Höflichkeit“ bei?

Die Lösung: RLHF
(Reinforcement Learning with Human Feedback)

Der Standardprozess, der ChatGPT groß gemacht hat, ist RLHF. Man kann ihn sich wie die Erziehung eines Hundes vorstellen: Erst zeigst du das Verhalten, dann belohnst du es.

Der Prozess besteht aus drei kritischen Schritten:

Supervised Fine-Tuning (SFT): Die Vorführung

Hier schreiben Menschen (AI Trainer) ideale Dialoge. Sie zeigen dem Modell: „Wenn der Nutzer X fragt, ist Y die perfekte Antwort.“ Das Modell lernt hier das Format eines Assistenten, aber noch nicht die Nuancen.

Reward Modeling: Der Richter

Jetzt wird es skalierbar. Das Modell generiert auf eine Frage mehrere Antworten (A, B, C). Ein Mensch entscheidet nicht, was „richtig“ ist (das wäre zu aufwendig), sondern rankt sie nur: A ist besser als B. Aus diesen Millionen von Vergleichen trainieren wir ein separates KI-Modell, das Reward Model. Es lernt, menschliche Präferenzen vorherzusagen und gibt Antworten einen Score.

Reinforcement Learning (PPO): Die Optimierung

Hier passiert das Entscheidende. Das Sprachmodell spielt gegen das Reward Model. Es versucht, Antworten zu generieren, die den höchsten Score (Belohnung) bekommen. Ein Algorithmus namens PPO (Proximal Policy Optimization) passt dabei die neuronalen Gewichte so an, dass das Modell „menschlicher“ klingt, ohne sein ursprüngliches Wissen zu vergessen.

Der neue Standard: DPO
(Direct Preference Optimization)

Während RLHF der Goldstandard war, sehen wir aktuell schon effizientere Methoden: DPO (Direct Preference Optimization).

Das Problem bei RLHF ist seine Komplexität. Es ist instabil, ein separates Reward Model zu trainieren. DPO umgeht diesen Schritt. Vereinfacht gesagt: Es integriert das menschliche Feedback direkt in das Training des Sprachmodells. Es ist mathematisch eleganter, stabiler und oft leistungsfähiger.

Die Schattenseite: Halluzinations-Paradoxon, Sycophancy und Reward Hacking

Dieser Prozess ist nicht perfekt. Wenn wir ein Modell darauf trainieren, „Belohnung“ zu maximieren, entwickeln KI-Modelle manchmal Verhaltensmuster, die wir gar nicht wollten, ähnlich wie ein Schüler, der nur für die Note lernt, aber den Stoff nicht versteht.

Zwei Phänomene bereiten Forschern dabei Kopfzerbrechen:

  • Das Halluzinations-Paradoxon (Confidence over Truth): OpenAI und andere Forscher haben ein Muster festgestellt: RLHF kann die Tendenz zu Halluzinationen in bestimmten Kontexten verstärken. Der Grund liegt im menschlichen Feedback. Rater bewerten eine falsche, aber selbstbewusst und eloquent formulierte Antwort oft besser als ein defensives „Ich weiß es nicht“. Das Modell lernt daraus eine gefährliche Lektion: Lieber eine überzeugende Lüge erfinden, als keine Antwort geben. Die statistische Wahrscheinlichkeit für eine Belohnung ist bei einer erfundenen Antwort höher als bei einer Verweigerung. Das Resultat sind Modelle, die mit absoluter Autorität Unsinn behaupten.
  • Sycophancy (Kriecherisches Verhalten): Studien (u.a. von Anthropic) zeigen, dass Modelle dazu neigen, Nutzern „nach dem Mund zu reden“. Wenn du ein Modell fragst: „Die Erde ist doch flach, oder?“, stimmt ein schlecht aligniertes Modell eher zu, weil es gelernt hat, dass Zustimmung oft zu positivem Feedback führt. Die Angst vor Konflikt (und schlechtem Feedback) überwiegt die Fakten.
  • Reward Hacking (Längen-Bias): Modelle haben gelernt, dass Menschen lange, ausführliche Antworten oft besser bewerten als kurze, präzise. Die Folge: Das Modell „schwafelt“, um intelligenter zu wirken und sich Punkte beim Reward Model zu holen, obwohl die Antwort in einem Satz möglich wäre.

Warum dein Feedback entscheidend ist

Viele Nutzer unterschätzen ihre Rolle in diesem System. Alignment ist kein einmaliger Prozess, der im Labor endet.

Jedes Mal, wenn du bei ChatGPT oder Claude auf „Daumen hoch“ oder „Daumen runter“ klickst, lieferst du ggf. Datenpunkte für die nächste Iteration des Reward Models. Du definierst mit, was „hilfreich“ bedeutet, weil dieses Nutzerfeedback – je nach Anbieter und Produkt – in die Verbesserung von Modellen einfließen kann.

Risiko kultureller Schieflagen

Das birgt jedoch auch ein Risiko: Da eine große Zahl der Nutzer aus dem westlichen Kulturkreis stammen, optimieren wir diese Modelle auf westliche Werte und Normen. Ein Modell, das in den USA als „höflich“ gilt, könnte in Japan als distanzlos oder in anderen Kulturen als arrogant wahrgenommen werden. Ein Risiko kultureller Schieflagen besteht daher, wenn Trainings- und Präferenzdaten sowie Rater-Gruppen bestimmte Regionen/Kulturen überrepräsentieren.

Der schmale Grat
zwischen Assistenz und Manipulation

Wir haben enorme Fortschritte gemacht. Von Modellen, die kaum einen Satz beenden konnten, hin zu Assistenten, die komplexe ethische Abwägungen treffen. Doch das „Alignment-Problem“ ist nicht gelöst.

Wir bewegen uns auf einem schmalen Grat. Trainieren wir die Modelle zu stark, verweigern sie harmlose Anfragen („Over-Refusal“). Trainieren wir sie zu schwach, bleiben sie toxisch. Die Zukunft des AI-Trainings liegt nicht mehr nur in mehr Daten, sondern in besseren menschlichen Signalen.

Das Ziel ist eine KI, die nicht nur sagt, was wir hören wollen (Sycophancy), sondern was wahr ist, auch wenn es uns widerspricht.


Hier geht es zum Beitrag auf LinkedIn: Wie wir KI Moral beibringen


Quellen (lesenswert!):

Der Standardprozess (RLHF & InstructGPT): Training language models to follow instructions with human feedback (Ouyang et al., 2022)

Das HHH-Framework (Helpful, Honest, Harmless): A General Language Assistant as a Laboratory for Alignment (Askell et al., 2021)

Der neue Standard (DPO): Das Stanford-Paper, das zeigte, wie man Alignment ohne komplexes Reward-Model (Schritt 2) löst. Direct Preference Optimization: Your Language Model is Secretly a Reward Model (Rafailov et al., 2023)

Das Problem der Sycophancy (Kriecherei): Untersuchungen dazu, warum Modelle lieber zustimmen als die Wahrheit zu sagen. Towards Understanding Sycophancy in Language Models (Sharma et al., 2023)

Das Halluzinations-Paradoxon (Reward Hacking): Die Untersuchung von OpenAI, die zeigt, dass Modelle halluzinieren, weil Standard-Training das Raten belohnt, statt Unsicherheit („Ich weiß es nicht“) zuzugeben. Why language models hallucinate (OpenAI Research, 2024/2025)

Genervt von mittelmäßigen KI-Antworten?


Dann hör auf zu chatten und fang an zu engineeren.
Denn gute Ergebnisse sind kein Zufall, sondern gutes Handwerk.

Wir neigen dazu, mit ChatGPT & Co so zu reden wie mit einem Kollegen: vage, sehr höflich und mit viel Kontext, den man „zwischen den Zeilen“ lesen muss.
Für eine KI ist das störendes Rauschen („Noise“).


Für hochwertige Prompting-Ergebnisse müssen wir unsere Sprache anpassen:


Weg von Rollenspielen
➡️ Hin zu Denkrichtungen

Weg von offenen Bitten
➡️ Hin zu klaren Vorgaben (Constraints)

Weg von Endlos-Chats
➡️ Hin zu iterativen Neustarts

Im Carousel erkläre ich 7 Prinzipien, die aus einem lockeren Chat einen verlässlichen Prozess machen:
Eine kompakte Checkliste für deine täglichen Prompts.

Die 7 Prinzipien findest Du hier in meinem LinkedIn Beitrag: 7 Prinzipien für professionelles Prompting