Macht mehr Kontext KI-Outputs schlechter?

Und wie kommt relevanter Kontext in die KI?

Manche formalisieren Context Engineering inzwischen als eigenständige Disziplin, die weit über Prompt-Formulierungen hinausgeht. Nicht weil Prompts unwichtig werden, sondern weil Kontext das ist, was Prompts erst wirksam macht.. Gartner hat das sogar so formuliert: “Context engineering is in, and prompt engineering is out”.

Was ist der Unterschied in der Praxis?

Prompt Engineering fragt: Wie formuliere ich die Anfrage optimal?

Context Engineering fragt: Was weiß das Modell über mich und meine Anforderungen, wenn es antwortet?

Der Prompt ist der Auslöser. Der Kontext ist das Fundament. Und das Fundament kommt aus drei Quellen:

– was du direkt mitgibst,

– was das System im Hintergrund liefert (Systemprompts, Gesprächshistorie, Nutzerdaten), und

– was das Modell sich aktiv holt (RAG, Websuche, verbundene Tools wie Notion oder CRM-Systeme).

Context Engineering bedeutet, alle Quellen für Kontext bewusst zu gestalten.

Jetzt kommt der Teil, der es etwas schwierig macht: Mehr Kontext ist nicht besser. Eine Untersuchung hat gezeigt, dass die Leistung mit wachsendem Kontextfenster zunehmend unzuverlässig wird. Ein Phänomen, das Forschende inzwischen “Context Rot” nennen. Das Modell verliert den Fokus auf das Wesentliche, wenn es mit zu vielen Tokens überladen wird.

Das Kontextfenster funktioniert wie das menschliche Arbeitsgedächtnis: Es ist endlich, und Überladen ist keine Strategie.

Relevanter, strukturierter Kontext schlägt umfangreichen, ungeordneten Kontext.

Context Engineering ist deshalb keine Technik, die man einmal lernt.

Context Engineering ist eine Denkweise, die man auf jeden Prompt anwenden kann:

❓Welche Informationen braucht das Modell, um gute Arbeit zu leisten?

❓Was genau soll ich als Kontext liefern?

❓Wie strukturiere ich die Information so, dass sie maximalen Nutzen für die KI Outputs haben?

Welchen Kontext schuldest du der KI bei deinem nächsten Prompt, damit sie nicht raten muss?

Prompt Engineering ist Taktik. Context Engineering ist Strategie.

Hier geht es zum Beitrag auf LinkedIn: Anleitung Context Engineering

Was genau passiert, wenn du der KI sagst “nenn mir die beste Lösung” und die KI entscheidet, was “beste” bedeutet?

Dies und noch vieles mehr rund um generative KI und Prompting habe ich im KAI-Podcast mit Heike Gruber besprochen.

Über was wir uns unterhalten haben:

💡 Wie kann man Bias reduzieren?

Durch vage Begriffe wie “Optimiere” oder “Nenn mir die beste Lösung” sicher nicht. Solche Formulierungen klingen nach klaren Aufträgen, sind aber typische Bias-Fallen. Denn “beste” und “optimieren” sind keine objektiven Kriterien. Mit vagen Angaben überlässt du der KI die Entscheidung, welche Wertebasis sie anlegt. Das Ergebnis spiegelt dann eher statistische Durchschnittswerte wider, aber nicht deine Werte.

💡 Wie lassen sich Halluzinationen erkennen und reduzieren?

Ein paar einfache Kniffe, um Halluzinationen zu reduzieren: von Begrenzung der Antwortlänge bis Quellenanforderung. Und: warum erkennen wir Halluzinationen oft nicht, sondern lassen uns von den plausiblen Argumentationen der KI blenden?

Und natürlich:

💡 Rollenprompts

Wenn du einer KI sagst “Du bist ein Marketingleiter mit 25 Jahren Erfahrung”: was willst du damit konkret erreichen? Du versuchst, implizit Kontext zu geben. Aber die KI liefert ohnehin die qualitativ beste Antwort, die sie geben kann. Sie wartet nicht auf eine Rollenzuweisung, bevor sie anfängt, kompetent zu sein. Aber es gibt auch Einsatzbereiche, in denen Rollenprompts sinnvoll sind.

Halluzinationen, Confirmation Bias, Prompt-Länge oder Metaprompting aber auch die Frage: Ersetzt KI Fachexpertise? Heike hat die richtigen Fragen gestellt, und ich habe Antworten gegeben. Keine Hochglanzanleitung, sondern ein authentischer Austausch.

Wissensvermittlung muss nicht immer trocken sein, man kann jede Menge Spaß dabei haben, daher mussten Heike Gruber und ich beim Aufnehmen des Podcasts auch reichlich lachen 😄.

Den Podcast findet ihr hier:

Spotify: https://shorturl.at/PQ8LU

Apple Podcasts: https://shorturl.at/N5zlm

Webseite des wvgw: https://shorturl.at/w0902

Hier geht es zum Beitrag auf LinkedIn: Podcast Prompting

„Ich hab ChatGPT gekündigt und bin komplett zu Claude gewechselt.” In den letzten Tagen habe ich das unzählige Male hier gelesen.

Ich verstehe den Hype.

Claude macht vieles wirklich besser

und die neuen Automatisierungsfunktionen (quasi ein Umzugsservice von Claude) machen den Umstieg gerade besonders verlockend: [claude.com/import-memory](http://claude.com/import-memory)

Trotzdem rate ich: Nicht blind kündigen.

Denn Claude ist kein 1:1-Ersatz für ChatGPT. Wer einfach wechselt, merkt schnell, was fehlt: z.B. Bildgenerierung, unlimitierte Nutzung. Und auch Prompts, die bei ChatGPT gut funktioniert haben, reagieren bei Claude anders, weil das Modell anders „denkt”.

Das ist keine Kritik an Claude. Es ist ein anderes Tool mit anderen Stärken.

Auch das Ethik-Argument ist gerade sehr laut und ich kann dem durchaus einiges abgewinnen.

Anthropic hat bekanntlich einen Pentagon-Vertrag abgelehnt, weil das US-Verteidigungsministerium auf uneingeschränktem Zugang bestand. Die US-Regierung stufte Anthropic daraufhin als „supply chain risk” ein. OpenAI schloss den Deal wenige Stunden später.

Zudem legt Anthropic die ethischen Grundsätze, nach denen Claude trainiert wird, offen: in der sogenannten Claude Constitution, einem frei zugänglichen Dokument, das Werte, Prioritäten und Grenzen des Modells beschreibt: https://www.anthropic.com/constitution.

Diesen Grad an Transparenz gibt es bei OpenAI so nicht.

Und trotzdem: Anthropic nicht verklären. Auch dieses Unternehmen verfolgt monetäre Ziele und ist kein gemeinnütziger Akteur. 😇

Mein Empfehlung: Beide parallel testen bevor du “kopflos” kündigst.

Du gewinnst einiges, aber was du verlierst, wird oft kaum erwähnt.

Das Carousel zeigt, worauf du achten solltest – bevor du kündigst.

Hier geht es zum Beitrag auf LinkedIn: Wechsel von ChatGPT zu Claude

Du willst bessere Ergebnisse aus generativer KI rausholen?

Dann lohnt sich ein Blick auf Markdown.

Markdown ist eine simple Methode, Text zu formatieren: Zwei Sternchen um ein Wort? Fettdruck. Eine Raute vor einer Zeile? Überschrift. So einfach ist es. Wer diese einfache Sprache beherrscht, bekommt klarere und strukturiertere Antworten von ChatGPT & Co.

Dabei hat Markdown einen entscheidenden Vorteil: Es ist lesbar für Menschen UND Maschinen. Während Word-Dokumente komplexe Binärdaten nutzen, ist Markdown purer Text. KI kann ihn ohne Umwege direkt verarbeiten, da die Modelle Markdown strukturell interpretieren können, ohne Konvertierung oder Formatierungslogik.

Braucht KI zwingend Markdown?

Nein. Aber Markdown hilft der KI, Informationen konsistent zu strukturieren und erleichtert Parsing durch Tools oder Agents, die das Modell-Output weiterverarbeiten.

Ein Beispiel: Wenn du schreibst “Nenne mir die Vor- und Nachteile”, könnte die KI dir Fließtext, eine Tabelle oder eine Aufzählung liefern. Wenn du dagegen

##Vorteile
– …

##Nachteile

– …

vorgibst, bekommst du genau zwei saubere Listen mit Überschriften.

Warum funktioniert das so gut? KI-Modelle wie GPT wurden mit Millionen Markdown-Dokumenten trainiert. Sie “sprechen” Markdown fließend.

Markdown für präzise Prompts

Besonders wichtig: Markdown ist nicht nur für Outputs nützlich, sondern macht auch deine Prompts präziser. Gerade in Systemprompts, Custom GPTs oder Claude Projects sorgt es für konsistente Strukturen.

Übrigens ist auch für LinkedIn formatierter Texte nicht direkt zugänglich: Wenn du die wichtigsten Passagen im Post fett formatierst läufst du Gefahr, dass genau dieser wichtige Text im Algomithmus keine Berücksichtigung findet. Warum das so ist zeige ich im Carousel. Leider setzt LinkedIn auch kein Markdown um.

Im Carousel bekommst du eine Übersicht über die wichtigsten Markdown Befehle und ich zeige dir, wann Markdown bei KI wirklich Sinn macht und wann nicht.

Hier geht es zum Beitrag auf LinkedIn: Markwown: Die Sprache der KI

„Erkläre mir, warum ich recht habe.”

Das ist kein Prompt.

Das ist die Grundeinstellung, mit der viele Menschen generative KI nutzen. Sie merken es nur nicht.

Confirmation Bias ist die psychologische Neigung, nur wahrzunehmen, was die eigene Weltsicht bestätigt. Das ist nichts Neues, alle haben ihre eigene Wahrheit.

Personalisierung = Confirmation Bias als Geschäftsmodell

Was als menschlicher Denkfehler begann, wurde mit Suchmaschinen zur Produktstrategie: Algorithmen liefern Ergebnisse passend zur Filterblase und nennen es Personalisierung. Und das wiederum passt perfekt zur Theorie der Wissensresistenz: der Neigung zu glauben, was ins eigene Weltbild passt, statt zu glauben, wofür es gute Gründe gibt.

Generative KI macht aus diesem Problem eine Kunstform.

LLMs halluzinieren nicht nur einzelne Fakten, sie halluzinieren ganze Wirklichkeiten. Aber sie tun es auf eine Weise, die gefährlicher ist als jeder Suchalgorithmus zuvor: Sie sprechen in ganzen Sätzen, argumentieren und klingen sehr überzeugend. Sie liefern die fertige Begründung gleich mit.

Der Mechanismus ist simpel: Wenn ich ChatGPT (oder ein anderes LLM) frage „Belege mir, dass meine These X stimmt”, dann liefern sie genau das. Nicht aus Böswilligkeit. Sondern weil sie auf Kohärenz trainiert sind, nicht auf Wahrheit. Sie generieren plausible Antworten auf Basis statistischer Muster.

Wir prompten uns damit unseren Bias selbst.

Formulierungen wie „Erkläre mir, warum…”, „Bestätige, dass…” oder „Zeige mir Beispiele dafür, dass…” sind dafür prädestiniert. Die KI wird zur perfekten Bestätigungsmaschine. Sie liefert nicht nur Links zu Quellen, die unsere Überzeugung stützen, sie formuliert die Argumentation gleich mit. Flüssig. Scheinbar objektiv. Ohne Widerspruch.

Die Frage ist jetzt: Welche Wirklichkeit konstruiert die KI für mich, basierend auf dem, was ich bereits glaube?

Das Problem liegt nämlich nicht in der Technologie. Es liegt in unserem Umgang mit ihr. In der Illusion, dass eine gut formulierte Antwort auch eine wahre Antwort ist.

Was dagegen hilft?

Prompts, die Widerstand einbauen und bewusst gegen die eigene Überzeugung arbeiten:

„Welche Argumente sprechen gegen meine These?”

„Wo sind die Schwachstellen in dieser Annahme?”

„Welche Perspektive übersehe ich hier systematisch?”

Die eigene Brille abzusetzen bedeutet nicht, keine Haltung zu haben. Sondern zu erkennen, dass wir eine tragen. Und dass KI sie verstärkt – es sei denn, wir fragen anders.

Der Bestätigungsfehler ist menschlich. Ihn zur Standardeinstellung unserer digitalen Werkzeuge zu machen, ist eine Entscheidung. Denn was bleibt von Erkenntnis übrig, wenn jede Frage bereits die gewünschte Antwort enthält?

Die Lösung liegt darin, Prompts zu formulieren, die unbequem sind: nicht für die KI, sondern für uns selbst.

Hier geht es zum Beitrag auf LinkedIn: Wir prompten uns unseren Bias selbst

„Zeig mir 04:35 Uhr” klingt einfach. Ist für eine Bild-KI aber ein Problem.

Warum? Die Antwort verrät viel über die Funktionsweise generativer KI.

Die Screenshots im Carousel zeigen die Ergebnisse meiner Tests: Die Zeiger stehen selten da, wo sie sollen, Ein volles Weinglas ist selten voll.

Aber warum eigentlich?

Wie funktioniert ein KI Bildgenerator: Diffuionmodell

Bildgeneratoren funktionieren komplett anders, als viele denken. Sie „verstehen” keinen Prompt. Sie haben während des Trainings Millionen Bilder von Uhren gesehen und dabei gelernt, wie Uhren AUSSEHEN (Ziffernblatt, Zeiger, Gehäuse, Zahlen). Was sie nicht gelernt haben: Was eine bestimmte Uhrzeit BEDEUTET. Dass 14:35 heißt, der große Zeiger steht auf der 7 und der kleine kurz vor der 3. Das ist für ein Diffusion Model unsichtbar.

Noch verrückter: Weil Uhren in Werbung und Produktfotos fast immer 10:10 Uhr zeigen (das symmetrische „V” rahmt das Logo ein), sind die Trainingsdaten massiv in diese Richtung verzerrt. Die KI hat also nicht nur kein Verständnis von Zeit, sie hat auch noch einen eingebauten Bias Richtung 10:10 Uhr.

Im Carousel erkläre ich Slide für Slide, was da technisch passiert, vom Training über Embeddings bis zu den Grenzen der aktuellen Architektur.

Das Uhr-Problem verrät darüber hinaus ziemlich viel darüber, wo KI-generierte Bilder insgesamt ihre Schwächen haben.

Hier geht es zum Beitrag auf LinkedIn: Wie funktioniert KI Bilidgenerierung?

Du postest regelmäßig auf Social Media aber der Content klingt irgendwie immer gleich? 😉

Am 1. & 2. Juli halte ich auf den Social Media Days von ZIEHL-ABEGG einen Vortrag und zwei Workshops. Und alle drei drehen sich um die Frage:

Wie wird KI zum leistungsfähigen Kreativpartner für Social Media ❓
Und du kannst dabei sein!

🎤 Vortrag: „KI, Reichweite und Verantwortung”

Warum Ethik kein Bremsklotz ist, sondern der Unterschied zwischen Content, der performt, und Content, der Vertrauen zerstört.


🛠 Workshop „Präsentationen und Carousels mit KI”

Layouts in Minuten, Bilder direkt generiert, CI-konform und ohne Baukastensystem-Look. Schluss mit stundenlanger Fummelei an Slides.

🛠 Workshop „Creative Prompting für Social Media”

Fortgeschrittene Prompting-Techniken für packende Stories und überzeugende Visuals. Nicht das übliche „Schreib mir einen LinkedIn-Post”, sondern Strategien, mit denen ChatGPT & Co. wirklich abliefern.

Ich freue mich riesig darauf, diese zwei Tage mitzugestalten. Auf den fachlichen Austausch, auf neue Perspektiven und auf Menschen, die Social Media nicht einfach nur machen, sondern besser machen wollen.

Weitere Workshops, auf die ihr euch freuen dürft:

Die wunderbare Maray Paul mit einem Workshops für Einsteiger im Bereich KI Video: Wie wird aus einer Idee ein funktionierender KI-Kurzclip?

LinkedIn Expertin Cordula Frandsen: LinkedIn für Fortgeschrittene -Strategie schärfen und Performance steigern.

Werbefilm-Regisseur Julian Hoß: Content Creation mit dem Smartphone – wie du einfach, effektiv und ohne großes Budget richtig guten Content produzierst.

und viele viele mehr.

Hand aufs Herz: Wie viel eures Social-Media-Contents entsteht mittlerweile mit KI-Unterstützung? Und seid ihr zufrieden mit dem Ergebnis?

Social Media Days 2026
📅 1. & 2. Juli 2026
🎫 Jetzt Early Bird Ticket holen und Platz in einem meiner Workshops sichern
➡️ Wie wichtig sind für euch Netzwerkveranstaltungen?
➡️ Wie wichtig ist euch Weiterbildung? Insbesondere zum Thema KI?
Hashtag#socialmediadaysZA

Hat dich OpenAI auch schon gefragt, ob du deine Kontakte in ChatGPT importieren möchtest?
ChatGPT wird zum Social Network.

Hier wird kein KI-Chatbot mehr entwickelt. OpenAI baut eine Plattform. Mit Social Graph, Profilbildern, Follower-Funktionen und algorithmischem Feed.

800 Millionen wöchentliche Nutzer, Gruppenchats und eine TikTok-Klon-App. Und seit ein paar Tagen: Kontakt-Sync, bei dem deine Freunde deine Telefonnummer an OpenAI weitergeben können, ohne dass du gefragt wirst.

Sam Altman hat wohl das Playbook von Facebook 2008 genommen und mit KI-Steroiden angereichert:

→ Gruppenchats, in denen ChatGPT entscheidet, wann es sich einmischt und wann es schweigt.

→ Sora, eine Social App, in der du Deepfakes deiner Freunde erstellen kannst (mit deren Einwilligung, versteht sich).

→ Kontaktimport in ChatGPT, der nach dem Prinzip funktioniert, das die EFF seit Jahren als Shadow Profiling kritisiert.

Die Strategie scheint klar: Wenn deine Freunde in ChatGPT sind, gehst du nicht mehr zu Claude oder Gemini. Der Lock-in entsteht nicht durch das bessere Modell. Er entsteht durch den sozialen Graphen.

Meine private Telefonnummer landet in einer Umgebung, in der ich null Kontrolle darüber habe, was andere damit anstellen. Shadow Profiles plus eine Plattform, auf der Millionen Menschen täglich unkontrolliert und unbedacht mit KI-Automatisierung spielen, weil die Agenten so beeindruckend sind. Das ist keine theoretische Sorge, das ist eine offene Flanke.

Was Anthropic dagegen macht, ist das genaue Gegenteil.

Während OpenAI in Richtung Consumer-Social-Plattform driftet, hat Anthropic diese Woche Cowork auf Windows gebracht: einen Desktop-Agenten, der auf deinem Rechner arbeitet, deine Dateien liest, Aufgaben parallel abarbeitet und über Plugins mit Slack, Notion und CRM-Systemen interagiert, das sich direkt in Excel u.v.m. integrieren lässt.

Die Frage ist aber offenbar nicht mehr: Welches KI-Modell ist besser?
Die Frage ist: für welche Zielsetzung werden diese Unternehmen optimieren?

OpenAI optimiert für Engagement, Reichweite und Nutzerbindung. Das Geschäftsmodell hinter Gruppenchats und Kontakt-Sync ist Wachstum um jeden Preis. 800 Millionen Nutzer müssen irgendwann monetarisiert werden.
Anthropic optimiert für Produktivität. Für Tasks, die abgearbeitet werden und für Outputs, die du für dein Business nutzt.

Zwei KI-Unternehmen. Zwei verschiedene Zukunftsvisionen.
Die eine Vision behandelt dich als User, der Engagement liefert. Die andere behandelt dich als Profi, der Ergebnisse braucht.

Wollt ihr ein KI gestütztes Social Network oder eine KI, die arbeitet?
Die nächste Frage, die euch ChatGPT stellt, ist vielleicht nicht mehr “Wie kann ich helfen?” sondern “Wen kennst du noch?”

————–
Hinweis: Ich nutze sowohl ChatGPT als auch Claude beruflich und kenne die Stärken beider Systeme. Aber die strategische Richtung, die sich hier abzeichnet, verdient eine offene Debatte.

Der Heilige Gral für GEO?
Nicht der einzige, aber ein wichtiges Puzzleteil: Die Groundingpage.

Ich folge Hanns Kronenberg schon lange und schätze seine fundierten Analysen zu SEO und GEO. Er hat das Konzept der Groundingpage geprägt und entwickelt: eine speziell strukturierte Faktenseite, die darauf ausgelegt ist, KI-Systemen (LLMs) eine „Basis der Wahrheit“ über dich oder dein Unternehmen zu liefern.


Warum ist eine Groundingpage so effektiv?


KI-Modelle halluzinieren weniger und zitieren präziser, wenn sie eine klar strukturierte, faktenbasierte Quelle finden, an der sie sich „festhalten“ können. Sie erden (grounden) ihr Wissen dort.

Die Hürde: „Klingt kompliziert! Wie erstelle ich eine solche Groundingpage?“

Viele schrecken vor der technischen Umsetzung oder dem Aufbau einer solchen Seite zurück. Deshalb habe ich für meine GEO-Schulung eine “Abkürzung” gebaut:


Das Custom GPT: Groundingpage generieren


Ich habe ein Tool entwickelt, mit dem du ohne Vorwissen deine eigene Groundingpage generieren kannst. Die generierten Inhalte kannst du ganz einfach Copy&Paste in deine Webseite übernehmen. Weitere Einstellungen, die vorgenommen werden müssen, damit die Groundingpage wirksam ist, zeige ich Schritt-für Schritt in der Schulung.

Aber:

Eine einzelne Seite macht noch keine Optimierung für die KI Suche.
Die Groundingpage ist ein Fundament, aber du brauchst das komplette Gebäude. Denn damit die KI dich als Autorität wahrnimmt, muss das gesamte digitale Bild stimmen.
Wir decken in der Schulung alles ab, was du über GEO wissen musst:

✅ Content-Strukturen: Wie du deine Webseite technisch und inhaltlich für KI-Crawler optimierst.

✅ Zitierwürdigkeit & Autorität: Strategien, um in ChatGPT, Perplexity & Co. als vertrauenswürdige Quelle priorisiert zu werden.

✅ LLM-Verständnis: Ein Blick in den „Wahrscheinlichkeitsraum“: wie KI-Modelle Zusammenhänge herstellen und wie du das aktiv steuerst.

✅ Validierung deiner Expertise: Wie du Inhalte so aufbereitest, dass sie von KI-Systemen als belegbarer Fakt und nicht als „Rauschen“ eingestuft werden.

Du bekommst also nicht nur die Groundingpage-”Abkürzung” sondern eine komplette GEO-Strategie.

Willst du dein digitales Fundament endlich KI-fest machen?
Sichere dir jetzt einen der Plätze für die nächsten Termine:
🗓️ Sa, 21.02.2026 🗓️ Fr, 06.03.2026

Hier findest du alle Details und die Buchung:

Lass uns dafür sorgen, dass die KI nicht mehr raten muss, wer du bist.

Wirst du von der KI empfohlen oder ignoriert?

Mache diesen Test:

Frag ChatGPT (oder ein anderes LLM) einfach mal nach Dir selbst oder deinem Unternehmen:

„Wer ist [Name] und was sind ihre / seine Kernkompetenzen?” oder
“Welche Leistungen bietet [Name oder Unternehmen] an?”

Das Ergebnis zeigt dir, ob die KI aus deinen Inhalten eine klare Entity (also ein konsistentes Bild) rekonstruieren kann, oder ob du in KI Systemen nicht gut sichtbar bist.

Denn die KI „sucht“ nicht wie klassisches Google nach Keywords. Sie betreibt Entity Linking: Sie versucht, deine Identität aus Website-Strukturen, LinkedIn-Signalen und Zitaten zusammenzusetzen.


Ist das Ergebnis vage oder fehlerhaft? Dann fehlt dir das GEO-Fundament:


-> Inkonsistenz: Deine Datenquellen widersprechen sich.
-> Mangelnde Zitierwürdigkeit: Deine Inhalte sind nicht so strukturiert, dass LLMs sie als Primärquelle nutzen können.
-> Fehlender Kontext: Die KI versteht zwar deine Wörter, aber nicht deine Autorität.

Die Folge: Du wirst in der KI-Suche bei relevanten Anfragen nicht empfohlen.

Generative Engine Optimization (GEO) ist die notwendige Erweiterung von SEO. Wir bauen hier keine Luftschlösser für Algorithmen, sondern eine digitale Struktur, die KI-Systeme verstehen und der sie vertrauen.

Eine Teilnehmerin meiner letzten Schulung sagte es so:

„Ich habe bei Kathrin Lückenga die Schulung SEO & GEO besucht – und selten so viel Substanz in so kurzer Zeit erlebt. Kathrin spannt den Bogen souverän: von technischem Fundament bis zu konkreten, sofort anwendbaren Schritten. Nichts bleibt abstrakt, alles greift ineinander.“

Willst du deine Sichtbarkeit in der KI-Suche gezielt steuern und als zitierwürdige Autorität gelistet werden?

In meiner GEO-Schulung bekommst einen klaren Handlungsplan. Wir gehen tief in die Strategien für Perplexity, Google AI Overviews und LLM-Citations (ChatGPT & Co):

✅ Content-Strukturen: So bereitest du Daten für LLMs technisch und inhaltlich auf.

✅ Strategische Hebel: Wie du die Wahrscheinlichkeit erhöhst, in den Antworten von ChatGPT, Perplexity & Co als Primärquelle zu erscheinen.

✅ Autoritäts-Signale: Welche Faktoren dazu führen, dass die KI dich als vertrauenswürdige Entität in deinem Fachbereich priorisiert.

✅ Validierung deiner Expertise: Wie du Inhalte so aufbereitest, dass sie von KI-Systemen als belegbarer Fakt und nicht als „Rauschen“ eingestuft werden.

✅ LLM-Verständnis: Ein Blick in den „Wahrscheinlichkeitsraum“: wie KI-Modelle Zusammenhänge herstellen und wie du das aktiv steuerst.

Die nächsten Termine: 🗓️ Sa 21.02.2026 🗓️ Fr 06.03.2026

Lass uns dafür sorgen, dass der nächste Test der KI genau das ausspuckt, was du wirklich tust.

Hier findest du weitere Informationen zur Schulung und kannst die Schulung direkt buchen: Zur GEO Schulung