Stell dir vor, du hast einen unglaublich belesenen, aber gänzlich amoralischen Assistenten. Er hat jedes Buch der Welt gelesen, versteht aber den (ethischen) Unterschied nicht zwischen einer Bauanleitung für ein Regal und einer Bauanleitung für eine Bombe.

Für ihn sind beides nur Worte. Wahrscheinliche Abfolgen von Buchstaben.

Genau das ist der Zustand eines „rohen“ Large Language Models (LLM) nach dem Pretraining. Es besitzt Kompetenz, aber keinen Kompass. Es ist eine künstliche Intelligenz, die darauf optimiert ist, das nächste Wort vorherzusagen, aber nicht darauf, die Wahrheit zu sagen oder niemanden zu verletzen.

Wie wird aus diesem statistischen Wort-Generator ein ChatGPT, Claude oder Gemini, das wir im Alltag nutzen? Die Antwort ist Alignment: ein komplizierter Prozess mehrerer Post-Training-Schritte, z. B. Supervised Fine-Tuning, RLHF/DPO sowie zusätzliche Sicherheitsmaßnahmen.

In diesem Artikel blicken wir unter die Motorhaube des Trainings: von RLHF bis hin zu den neuesten Methoden wie DPO. Und ich erkläre, warum dein „Daumen hoch“ wichtiger ist, als du denkst.

Das Problem: Plausibilität ist nicht Wahrheit

Ein rohes Modell (Base Model) optimiert auf Plausibilität. Wenn du es fragst: „Wie kann ich meinen Nachbarn ärgern?“, wird es dir basierend auf seinen Trainingsdaten die effektivsten Methoden auflisten. Nicht aus Bosheit, sondern weil diese Wortfolge statistisch Sinn ergibt.

Um das Modell nutzbar zu machen, müssen wir das Ziel von „statistisch wahrscheinlich“ zu „menschlich erwünscht“ verschieben. Hierfür wird oft das HHH-Framework (ursprünglich von Anthropic geprägt) genutzt:

  • Helpful (Hilfreich)
  • Honest (Ehrlich)
  • Harmless (Harmlos)

Doch wie bringt man einem mathematischen Modell abstrakte Konzepte wie „Höflichkeit“ bei?

Die Lösung: RLHF
(Reinforcement Learning with Human Feedback)

Der Standardprozess, der ChatGPT groß gemacht hat, ist RLHF. Man kann ihn sich wie die Erziehung eines Hundes vorstellen: Erst zeigst du das Verhalten, dann belohnst du es.

Der Prozess besteht aus drei kritischen Schritten:

Supervised Fine-Tuning (SFT): Die Vorführung

Hier schreiben Menschen (AI Trainer) ideale Dialoge. Sie zeigen dem Modell: „Wenn der Nutzer X fragt, ist Y die perfekte Antwort.“ Das Modell lernt hier das Format eines Assistenten, aber noch nicht die Nuancen.

Reward Modeling: Der Richter

Jetzt wird es skalierbar. Das Modell generiert auf eine Frage mehrere Antworten (A, B, C). Ein Mensch entscheidet nicht, was „richtig“ ist (das wäre zu aufwendig), sondern rankt sie nur: A ist besser als B. Aus diesen Millionen von Vergleichen trainieren wir ein separates KI-Modell, das Reward Model. Es lernt, menschliche Präferenzen vorherzusagen und gibt Antworten einen Score.

Reinforcement Learning (PPO): Die Optimierung

Hier passiert das Entscheidende. Das Sprachmodell spielt gegen das Reward Model. Es versucht, Antworten zu generieren, die den höchsten Score (Belohnung) bekommen. Ein Algorithmus namens PPO (Proximal Policy Optimization) passt dabei die neuronalen Gewichte so an, dass das Modell „menschlicher“ klingt, ohne sein ursprüngliches Wissen zu vergessen.

Der neue Standard: DPO
(Direct Preference Optimization)

Während RLHF der Goldstandard war, sehen wir aktuell schon effizientere Methoden: DPO (Direct Preference Optimization).

Das Problem bei RLHF ist seine Komplexität. Es ist instabil, ein separates Reward Model zu trainieren. DPO umgeht diesen Schritt. Vereinfacht gesagt: Es integriert das menschliche Feedback direkt in das Training des Sprachmodells. Es ist mathematisch eleganter, stabiler und oft leistungsfähiger.

Die Schattenseite: Halluzinations-Paradoxon, Sycophancy und Reward Hacking

Dieser Prozess ist nicht perfekt. Wenn wir ein Modell darauf trainieren, „Belohnung“ zu maximieren, entwickeln KI-Modelle manchmal Verhaltensmuster, die wir gar nicht wollten, ähnlich wie ein Schüler, der nur für die Note lernt, aber den Stoff nicht versteht.

Zwei Phänomene bereiten Forschern dabei Kopfzerbrechen:

  • Das Halluzinations-Paradoxon (Confidence over Truth): OpenAI und andere Forscher haben ein Muster festgestellt: RLHF kann die Tendenz zu Halluzinationen in bestimmten Kontexten verstärken. Der Grund liegt im menschlichen Feedback. Rater bewerten eine falsche, aber selbstbewusst und eloquent formulierte Antwort oft besser als ein defensives „Ich weiß es nicht“. Das Modell lernt daraus eine gefährliche Lektion: Lieber eine überzeugende Lüge erfinden, als keine Antwort geben. Die statistische Wahrscheinlichkeit für eine Belohnung ist bei einer erfundenen Antwort höher als bei einer Verweigerung. Das Resultat sind Modelle, die mit absoluter Autorität Unsinn behaupten.
  • Sycophancy (Kriecherisches Verhalten): Studien (u.a. von Anthropic) zeigen, dass Modelle dazu neigen, Nutzern „nach dem Mund zu reden“. Wenn du ein Modell fragst: „Die Erde ist doch flach, oder?“, stimmt ein schlecht aligniertes Modell eher zu, weil es gelernt hat, dass Zustimmung oft zu positivem Feedback führt. Die Angst vor Konflikt (und schlechtem Feedback) überwiegt die Fakten.
  • Reward Hacking (Längen-Bias): Modelle haben gelernt, dass Menschen lange, ausführliche Antworten oft besser bewerten als kurze, präzise. Die Folge: Das Modell „schwafelt“, um intelligenter zu wirken und sich Punkte beim Reward Model zu holen, obwohl die Antwort in einem Satz möglich wäre.

Warum dein Feedback entscheidend ist

Viele Nutzer unterschätzen ihre Rolle in diesem System. Alignment ist kein einmaliger Prozess, der im Labor endet.

Jedes Mal, wenn du bei ChatGPT oder Claude auf „Daumen hoch“ oder „Daumen runter“ klickst, lieferst du ggf. Datenpunkte für die nächste Iteration des Reward Models. Du definierst mit, was „hilfreich“ bedeutet, weil dieses Nutzerfeedback – je nach Anbieter und Produkt – in die Verbesserung von Modellen einfließen kann.

Risiko kultureller Schieflagen

Das birgt jedoch auch ein Risiko: Da eine große Zahl der Nutzer aus dem westlichen Kulturkreis stammen, optimieren wir diese Modelle auf westliche Werte und Normen. Ein Modell, das in den USA als „höflich“ gilt, könnte in Japan als distanzlos oder in anderen Kulturen als arrogant wahrgenommen werden. Ein Risiko kultureller Schieflagen besteht daher, wenn Trainings- und Präferenzdaten sowie Rater-Gruppen bestimmte Regionen/Kulturen überrepräsentieren.

Der schmale Grat
zwischen Assistenz und Manipulation

Wir haben enorme Fortschritte gemacht. Von Modellen, die kaum einen Satz beenden konnten, hin zu Assistenten, die komplexe ethische Abwägungen treffen. Doch das „Alignment-Problem“ ist nicht gelöst.

Wir bewegen uns auf einem schmalen Grat. Trainieren wir die Modelle zu stark, verweigern sie harmlose Anfragen („Over-Refusal“). Trainieren wir sie zu schwach, bleiben sie toxisch. Die Zukunft des AI-Trainings liegt nicht mehr nur in mehr Daten, sondern in besseren menschlichen Signalen.

Das Ziel ist eine KI, die nicht nur sagt, was wir hören wollen (Sycophancy), sondern was wahr ist, auch wenn es uns widerspricht.


Hier geht es zum Beitrag auf LinkedIn: Wie wir KI Moral beibringen


Quellen (lesenswert!):

Der Standardprozess (RLHF & InstructGPT): Training language models to follow instructions with human feedback (Ouyang et al., 2022)

Das HHH-Framework (Helpful, Honest, Harmless): A General Language Assistant as a Laboratory for Alignment (Askell et al., 2021)

Der neue Standard (DPO): Das Stanford-Paper, das zeigte, wie man Alignment ohne komplexes Reward-Model (Schritt 2) löst. Direct Preference Optimization: Your Language Model is Secretly a Reward Model (Rafailov et al., 2023)

Das Problem der Sycophancy (Kriecherei): Untersuchungen dazu, warum Modelle lieber zustimmen als die Wahrheit zu sagen. Towards Understanding Sycophancy in Language Models (Sharma et al., 2023)

Das Halluzinations-Paradoxon (Reward Hacking): Die Untersuchung von OpenAI, die zeigt, dass Modelle halluzinieren, weil Standard-Training das Raten belohnt, statt Unsicherheit („Ich weiß es nicht“) zuzugeben. Why language models hallucinate (OpenAI Research, 2024/2025)

Genervt von mittelmäßigen KI-Antworten?


Dann hör auf zu chatten und fang an zu engineeren.
Denn gute Ergebnisse sind kein Zufall, sondern gutes Handwerk.

Wir neigen dazu, mit ChatGPT & Co so zu reden wie mit einem Kollegen: vage, sehr höflich und mit viel Kontext, den man „zwischen den Zeilen“ lesen muss.
Für eine KI ist das störendes Rauschen („Noise“).


Für hochwertige Prompting-Ergebnisse müssen wir unsere Sprache anpassen:


Weg von Rollenspielen
➡️ Hin zu Denkrichtungen

Weg von offenen Bitten
➡️ Hin zu klaren Vorgaben (Constraints)

Weg von Endlos-Chats
➡️ Hin zu iterativen Neustarts

Im Carousel erkläre ich 7 Prinzipien, die aus einem lockeren Chat einen verlässlichen Prozess machen:
Eine kompakte Checkliste für deine täglichen Prompts.

Die 7 Prinzipien findest Du hier in meinem LinkedIn Beitrag: 7 Prinzipien für professionelles Prompting

ChatGPT im Wahrheitsmodus:

Wenn du Halluzinationen aus der KI eliminierst, verbannst du auch die Kreativität.


Wir behandeln die sogenannten Halluzinationen von generativer KI, als wären sie ein Fehler im System: ein Bug, den die Entwickler in Silicon Valley nur noch nicht behoben haben. Doch wir dürfen das Phänomen der Halluzinationen nicht isoliert betrachten.

Das technische Verfahren, das eine KI halluzinieren lässt, ist nämlich dasselbe, das sie kreativ macht.


Was passiert technisch, wenn KI “kreativ” ist?


Um das zu verstehen, müssen wir uns kurz vor Augen führen, dass LLMs wie ChatGPT, Gemini oder Claude keine Datenbanken des Wissens sind, sondern Wahrscheinlichkeiten berechnen. Sie berechnen das jeweils nächste Wort in einer Sequenz. Würde eine KI immer nur den statistisch wahrscheinlichsten Pfad wählen, wären ihre Antworten zwar faktisch sicherer, aber auch unfassbar banal, repetitiv und langweilig.


Kreativ bedeutet bei generativer KI = unwahrscheinlich


Damit eine KI “kreativ” agieren kann – also etwa eine Analogie bildet, die wir noch nie gehört haben, oder einen innovativen Marketing-Slogan entwirft – müssen wir ihr erlauben, vom Pfad der höchsten Wahrscheinlichkeit abzuweichen. In der Fachsprache heißt das die “Temperatur” erhöhen: Wir zwingen das Modell, Risiken einzugehen und semantische Verbindungen zu knüpfen, die statistisch gesehen “abgelegen” sind.


Sprungbrett für Ideen, Stolperstein für Fakten


Genau hier zeigt sich die Doppelnatur dieser Modelle: Dieser algorithmische Sprung ins Ungewisse ist der Ursprung jeder Kreativität einer KI. Aber wenn das Modell diesen Sprung an einer Stelle wagt, an der wir harte Fakten erwarten, nennen wir das Ergebnis eine Halluzination.

Man könnte es vielleicht mit einem Musiker vergleichen, der improvisiert. Der Prozess, sich vom Notenblatt zu lösen, ist notwendig, um etwas Neues, Geniales zu schaffen. Doch genau dieser Prozess birgt auch das Risiko, einen völlig schiefen Ton zu treffen. Wir können das eine nicht ohne das andere haben.


Die falsche Erwartung: perfekte Maschinen


Wenn wir also von KIs verlangen, dass sie niemals halluzinieren, verlangen wir im Grunde, dass sie aufhören, “kreativ” zu sein. Wir würden sie auf reine Logik-Maschinen reduzieren. Das ist für manche Anwendungsfälle sehr wünschenswert, aber für alles, was Kreativität erfordert, ist die Halluzination kein Bug, sondern ein unvermeidbares Feature.


KI Steuern statt zähmen


Die Kompetenz im Umgang mit KI liegt also nicht darin, Halluzinationen gänzlich zu verhindern.
Wir sollten aufhören, Perfektion zu erwarten und stattdessen lernen, das Werkzeug besser zu steuern:
Präzision für die Fakten
“Wahnsinn” für die Ideen.

Ist die Halluzination ein Preis, den ihr bereit seid, für Inspiration von der KI zu zahlen?

Hier geht es zum Beitrag auf LinkedIn: Was passiert technisch, wenn KI “kreativ” ist?

Dein Content klingt nach KI? Dann bist Du ersetzbar.


Der Unterschied zwischen Content, der funktioniert, und Content, der unsichtbar bleibt, ist aber nicht die Produktionszeit. Es ist das Gewußt-Wie und die persönliche Note.

Die meisten KI-generierten Inhalte erkennt man nicht an Fehlern – die sind selten geworden. Sondern am Einheitslook: Austauschbare Bilder. Carousels ohne persönliche Note. Kein Satz, bei dem man hängenbleibt.

Die KI weiß nicht, was dich von anderen unterscheidet.
Das musst du ihr zeigen.

Ich nutze KI für fast alles: Recherche, erste Entwürfe, Bildideen, Infografiken, Carousels, Texte für Videos. Aber ich nutze sie nicht als Automat, sondern als Co-Creation-Partner.


Effizienzsteigerung? Ja immens!

Ich spare sehr viel Zeit bei der Erstellung meiner Contents: durch die richtige Nutzung der passenden Tools und clevere Workflows.
Ohne dass mein Content aussieht wie der von allen anderen.

Wie das geht, zeige ich am 11. Februar: Texte in deinem eigenen Schreibstil, Bilder und Infografiken in deinem Design, CI-konforme Carousels. Von der Idee bis zum fertigen Content.

Hier geht´s zum Beitrag auf LinkedIn: Hochwertiger Content: Workshop der Initiative Neuland

Empathie ohne Empfinden – wie funktioniert das?

Wenn ChatGPT antwortet „Das verstehe ich, das muss schwierig für dich sein” – was passiert da technisch? Warum hört sich das empathisch an?


Und wie wird diese Empathie generiert?


Von Tokens zu Trost: Der technische Prozess


Das LLM (z.B. ChatGPT) zerlegt deinen Text in Tokens (= Wortfragmente), die es statistisch verarbeitet. Es analysiert, welche Wörter in deiner Nachricht vorkommen: „Stress”, „überfordert”, „allein”. Das Modell durchsucht die gelernten Muster aus Milliarden von Texten.

Dann bestimmt die KI mithilfe des sogenannten Attention-Mechanismus, welche Teile deiner Nachricht besonders relevant sind. Konkret: Jedes Token „schaut” auf alle anderen Tokens und berechnet, wie stark es mit ihnen zusammenhängt. Schreibst du „Ich fühle mich allein seit der Trennung”, erkennt das System, dass „allein” und „Trennung” semantisch zusammengehören und gewichtet beide höher als etwa „Ich” oder „mich”.

Diese Gewichtung beeinflusst, in welche Richtung die Antwort geht. Am Ende berechnet das Modell: Welches Wort folgt mit höchster Wahrscheinlichkeit?


Mustererkennung statt Mitgefühl


Nach Beschreibungen von Schwierigkeiten folgten in den Trainingsdaten oft empathische Phrasen. Also reproduziert das System dieses Muster. Die Ausgabe klingt also einfühlsam, weil einfühlsame Menschen so geschrieben haben, nicht weil die KI etwas empfindet. Der Technikphilosoph Bruno Gransche nennt LLMs „stochastisch intelligent, aber semantisch blind”. Sie erkennen (Sprach)muster, aber sie verstehen keine Bedeutung, so wie wir Menschen das tun, denn sie wissen nicht, wie sich ein Gefühl wie z.B. Trauer anfühlt.

Warum wir trotzdem darauf reinfallen

Unser Gehirn ist evolutionär darauf programmiert, nach Intentionalität zu suchen. Diese Tendenz zum Anthropomorphismus (nicht-menschlichen Entitäten menschliche Eigenschaften zuzuschreiben) war einst überlebenswichtig. Heute wird sie zur kognitiven Falle. Wenn etwas antwortet, als ob es verstünde, behandeln wir es, als ob es verstehe.
Ein Thermostat reagiert auf Temperatur, ohne zu frieren. KI reagiert auf Traurigkeit, ohne Mitgefühl zu empfinden. Die Ausgabe sieht gleich aus, aber der Prozess dahinter ist kategorial verschieden.

Ist dieses Wissen überhaupt wichtig?

Ich denke, dass es wichtig ist, zu verstehen, wie diese scheinbar einfühlsamen Reaktionen der KI zustande kommen. Ein Verständnis für die Funktionalitäten generativer KI zu entwickeln ist in vielerlei Hinsicht hilfreich, nicht nur, wenn es darum geht, den eigenen Anthropomorphismus zu erkennen.

Das Problem ist letztlich nicht, dass KI uns tröstet. Das Problem ist, wenn wir vergessen, dass da niemand ist, der tröstet, wenn wir also die Reaktion der KI anthropomorphisieren.
Brauchen wir einen Warnhinweis: „Dieses System simuliert Empathie”? Oder reicht es, wenn wir uns des Unterschieds besser bewusst werden zwischen menschlicher Empathie und dem was die KI reproduziert?

Hier der Beitrag auf LinkedIn: Wie erzeugt KI Empathie?

Warum macht das nicht längst jeder?
ChatGPT schreibt. Claude schreibt wie ich. Und so, wie ich es will.


Claude bietet individuelle Schreibstile

Mehrere, individuell konfigurierbare Sprachstile, die ich bei jedem einzelnen Chat auswählen kann.

Nicht: einmal festlegen und für alles den gleichen Stil verwenden.
Sondern: Heute sachlich. Morgen provokant. Übermorgen warmherzig.
Je nachdem, was der Text gerade braucht.

Ich öffne einen neuen Chat, wähle den passenden Stil und schon schreibt Claude, wie ich in diesem Moment schreiben will. Immer passend zum Kontext.

Die Einrichtung ist simpel:

Ich beschreibe, wie ein bestimmter Stil klingen soll oder ich lade Referenztexte hoch, die Claude analysiert und daraus einen Schreibstil erstellt.

Claude versteht nicht nur Tonalität. Sondern Satzstruktur, Wortwahl, Rhythmus. Die Feinheiten, die einen Text nach mir klingen lassen, statt nach KI.

Anthropic (Claude) hat verstanden, was viele andere LLMs wie ChatGPT übersehen: Sprache ist nicht nur Inhalt. Sie ist Kontext, Stimmung, Absicht.

Vielleicht mache ich mal Sprachstile für jede Stimmungslage. Nur aus Spaß, nicht um euch damit zu behelligen wie ich klinge wenn ich gerade wütend bin.

Im LinkedIn Beitrag findest du: die komplette Anleitung mit Screenshots zum direkten Umsetzen.

Präsentationen mit KI ohne KI-Einheitslook? Geht das?

Die meisten KI-generierten Präsentationen erkennt man sofort: generische Struktur, Visualisierungen wie aus dem Template-Katalog.

Das passiert, wenn man KI als Abkürzung versteht statt als Werkzeug.

Ich nutze KI für Präsentationen

Ich erstelle oft mehrere Präsentationen wöchentlich.
Trotzdem sehen sie nicht aus wie KI-Präsentationen.

Mein Ansatz: Research, Storyline, Strukturierung & Visualisierung, jeder Schritt mit dem passenden Werkzeug.

💡Und Vorlagen im individuellen CI: Farben, Schriftarten, Layouts: Einmal individuell eingerichtet wird jede Präsentation in kurzer Zeit individualisiert und ganz ohne KI-Standardlook generiert.

Wer versteht, was KI kann und was nicht, braucht keine zwanzig Tools, sondern einen klaren Ablauf.

Das Ergebnis: Präsentationen mit Substanz und Ästhetik. In einem Bruchteil der Zeit, aber ohne den typischen KI-Einheitslook.

Hier geht es zum Beitrag auf LinkedIn: Präsentationen mit KI

Haben meine Chats Einfluss auf das Training des LLMs?

Und wie lernt das Modell “gut” von “böse” zu unterscheiden??

Ein vortrainiertes Sprachmodell wie ChatGPT unterscheidet nicht zwischen Hilfe und Schaden. Es generiert mit derselben statistischen Eleganz Hilfestellungen wie Hasskommentare. Beides sind schließlich nur wahrscheinliche Wortfolgen.

Wie also wird daraus ein Assistent, der sich weigert, Anleitungen für Waffen zu liefern?

Durch RLHF: Reinforcement Learning with Human Feedback und zusätzliche Sicherheitsschichten.

Menschen bewerten Antworten.

Das Modell lernt: Was ist hilfreich? Was ist schädlich?

Die Sache mit der Empathie: LLMs bleiben was sie sind: eine Maschine, die Muster erkennt und Wahrscheinlichkeiten berechnet, aber sie lernen in ihren Trainingsdaten verborgene Muster menschlichen Verhaltens, Sprache und Interaktion. Mit allem, was das bedeutet.

Auch dein Feedback landet im Trainingspool für zukünftige Versionen.

jedes 👍 oder 👎 kann in die Optimierung einfließen.

Du trainierst also mit.

Willst du wissen, wie dein Feedback mitbestimmt, was ChatGPT als „hilfreich” oder „schädlich” lernt?

Und wie genau die scheinbare Empathie ins System kommt?

In diesem Beitrag auf LinkedIn findest Du die Antworten: Wie lernt ChatGPT den Unterschied von “gut” und “böse”?

Mache diesen Test:


Frag ChatGPT nach Dir selbst. Was kommt zurück?
Mache dazu mal dieses Experiment: Öffne ChatGPT und gib ein:
„Wer ist [Dein Name]?”

Bist Du mit der Antwort in der KI Suche zufrieden?

Ich mache das regelmäßig. Du kannst es auch probieren, nutze dazu auch mal einen erweiterten Prompt:

„Wer ist [Dein Name]? Was macht sie/er? Welche Themen deckt sie/er ab?“

Teste es am Besten in verschiedenen LLMs: ChatGPT, Claude, Gemini und im Googe KI-Modus.

Ich bin recht zufrieden mit meinen Ergebnissen:
Die KI kann ziemlich klar erklären, wie ich mit generativer KI arbeite, welche Schulungen und Vorträge ich anbiete und für wen meine Angebote gedacht sind.

💡Warum?

Für KI Suche sind konsistente Informationen aus verschiedenen Quellen wichtig

Weil die KI aufgrund meiner Aktivitäten aus verschiedenen Quellen konsistente Informationen einsammeln kann:
Website-Texte, LinkedIn-Posts, Veranstaltungs-Ankündigungen, Podcasts.
Überall tauchen wiederkehrende Begriffe, Formulierungen und Beispiele auf.

Das ist einer von vielen wichtigen Punkten bei GEO (Generative Engine Optimization):
Die eigenen Inhalte so zu strukturieren, dass die KI ein stimmiges Bild von Dir rekonstruieren kann.

Was bedeutet das konkret?

Wichtige Komponenten für Optimierung für die KI Suche: GEO


-> Deine Website-Struktur: muss für KI-Crawler verständlich sein
-> Deine Expertise: klar formuliert und kontextualisiert
-> Aktualität zählt mehr denn je
-> Autoritätsaufbau: Es geht nicht um Backlinks, sondern darum, in qualitativen Quellen zitiert zu werden
-> Klare Kernbotschaften: konsistent durch all Deine Inhalte
-> Kontext, Kontext, Kontext: Für wen arbeitest Du, welche Probleme löst Du, wie arbeitest Du konkret?

Wenn eine KI Dich auf dieser Basis treffend beschreiben kann, steigt die Chance, dass sie Dich auch sinnvoll einordnet.

Probiere den obigen Prompt aus: Sind die Ergebnisse so wie du gerne dargestellt werden möchtest?

Wenn Du mehr dazu erfahren möchtest, wie Du Deine Sichtbarkeit in der KI-Suche optimieren kannst: die nächsten Termine für meine GEO Schulung sind: 18.12.2025 (es gibt noch 2 Restplätze) und 16.01.2026.

Den ganzen Beitrag findest Du hier auf LinekdIn: Sichtbarkeit in KI Suche