Was genau passiert, wenn du der KI sagst “nenn mir die beste Lösung” und die KI entscheidet, was “beste” bedeutet?

Dies und noch vieles mehr rund um generative KI und Prompting habe ich im KAI-Podcast mit Heike Gruber besprochen.

Über was wir uns unterhalten haben:

💡 Wie kann man Bias reduzieren?

Durch vage Begriffe wie “Optimiere” oder “Nenn mir die beste Lösung” sicher nicht. Solche Formulierungen klingen nach klaren Aufträgen, sind aber typische Bias-Fallen. Denn “beste” und “optimieren” sind keine objektiven Kriterien. Mit vagen Angaben überlässt du der KI die Entscheidung, welche Wertebasis sie anlegt. Das Ergebnis spiegelt dann eher statistische Durchschnittswerte wider, aber nicht deine Werte.

💡 Wie lassen sich Halluzinationen erkennen und reduzieren?

Ein paar einfache Kniffe, um Halluzinationen zu reduzieren: von Begrenzung der Antwortlänge bis Quellenanforderung. Und: warum erkennen wir Halluzinationen oft nicht, sondern lassen uns von den plausiblen Argumentationen der KI blenden?

Und natürlich:

💡 Rollenprompts

Wenn du einer KI sagst “Du bist ein Marketingleiter mit 25 Jahren Erfahrung”: was willst du damit konkret erreichen? Du versuchst, implizit Kontext zu geben. Aber die KI liefert ohnehin die qualitativ beste Antwort, die sie geben kann. Sie wartet nicht auf eine Rollenzuweisung, bevor sie anfängt, kompetent zu sein. Aber es gibt auch Einsatzbereiche, in denen Rollenprompts sinnvoll sind.

Halluzinationen, Confirmation Bias, Prompt-Länge oder Metaprompting aber auch die Frage: Ersetzt KI Fachexpertise? Heike hat die richtigen Fragen gestellt, und ich habe Antworten gegeben. Keine Hochglanzanleitung, sondern ein authentischer Austausch.

Wissensvermittlung muss nicht immer trocken sein, man kann jede Menge Spaß dabei haben, daher mussten Heike Gruber und ich beim Aufnehmen des Podcasts auch reichlich lachen 😄.

Den Podcast findet ihr hier:

Spotify: https://shorturl.at/PQ8LU

Apple Podcasts: https://shorturl.at/N5zlm

Webseite des wvgw: https://shorturl.at/w0902

Hier geht es zum Beitrag auf LinkedIn: Podcast Prompting

„Ich hab ChatGPT gekündigt und bin komplett zu Claude gewechselt.” In den letzten Tagen habe ich das unzählige Male hier gelesen.

Ich verstehe den Hype.

Claude macht vieles wirklich besser

und die neuen Automatisierungsfunktionen (quasi ein Umzugsservice von Claude) machen den Umstieg gerade besonders verlockend: [claude.com/import-memory](http://claude.com/import-memory)

Trotzdem rate ich: Nicht blind kündigen.

Denn Claude ist kein 1:1-Ersatz für ChatGPT. Wer einfach wechselt, merkt schnell, was fehlt: z.B. Bildgenerierung, unlimitierte Nutzung. Und auch Prompts, die bei ChatGPT gut funktioniert haben, reagieren bei Claude anders, weil das Modell anders „denkt”.

Das ist keine Kritik an Claude. Es ist ein anderes Tool mit anderen Stärken.

Auch das Ethik-Argument ist gerade sehr laut und ich kann dem durchaus einiges abgewinnen.

Anthropic hat bekanntlich einen Pentagon-Vertrag abgelehnt, weil das US-Verteidigungsministerium auf uneingeschränktem Zugang bestand. Die US-Regierung stufte Anthropic daraufhin als „supply chain risk” ein. OpenAI schloss den Deal wenige Stunden später.

Zudem legt Anthropic die ethischen Grundsätze, nach denen Claude trainiert wird, offen: in der sogenannten Claude Constitution, einem frei zugänglichen Dokument, das Werte, Prioritäten und Grenzen des Modells beschreibt: https://www.anthropic.com/constitution.

Diesen Grad an Transparenz gibt es bei OpenAI so nicht.

Und trotzdem: Anthropic nicht verklären. Auch dieses Unternehmen verfolgt monetäre Ziele und ist kein gemeinnütziger Akteur. 😇

Mein Empfehlung: Beide parallel testen bevor du “kopflos” kündigst.

Du gewinnst einiges, aber was du verlierst, wird oft kaum erwähnt.

Das Carousel zeigt, worauf du achten solltest – bevor du kündigst.

Hier geht es zum Beitrag auf LinkedIn: Wechsel von ChatGPT zu Claude

Du willst bessere Ergebnisse aus generativer KI rausholen?

Dann lohnt sich ein Blick auf Markdown.

Markdown ist eine simple Methode, Text zu formatieren: Zwei Sternchen um ein Wort? Fettdruck. Eine Raute vor einer Zeile? Überschrift. So einfach ist es. Wer diese einfache Sprache beherrscht, bekommt klarere und strukturiertere Antworten von ChatGPT & Co.

Dabei hat Markdown einen entscheidenden Vorteil: Es ist lesbar für Menschen UND Maschinen. Während Word-Dokumente komplexe Binärdaten nutzen, ist Markdown purer Text. KI kann ihn ohne Umwege direkt verarbeiten, da die Modelle Markdown strukturell interpretieren können, ohne Konvertierung oder Formatierungslogik.

Braucht KI zwingend Markdown?

Nein. Aber Markdown hilft der KI, Informationen konsistent zu strukturieren und erleichtert Parsing durch Tools oder Agents, die das Modell-Output weiterverarbeiten.

Ein Beispiel: Wenn du schreibst “Nenne mir die Vor- und Nachteile”, könnte die KI dir Fließtext, eine Tabelle oder eine Aufzählung liefern. Wenn du dagegen

##Vorteile
– …

##Nachteile

– …

vorgibst, bekommst du genau zwei saubere Listen mit Überschriften.

Warum funktioniert das so gut? KI-Modelle wie GPT wurden mit Millionen Markdown-Dokumenten trainiert. Sie “sprechen” Markdown fließend.

Markdown für präzise Prompts

Besonders wichtig: Markdown ist nicht nur für Outputs nützlich, sondern macht auch deine Prompts präziser. Gerade in Systemprompts, Custom GPTs oder Claude Projects sorgt es für konsistente Strukturen.

Übrigens ist auch für LinkedIn formatierter Texte nicht direkt zugänglich: Wenn du die wichtigsten Passagen im Post fett formatierst läufst du Gefahr, dass genau dieser wichtige Text im Algomithmus keine Berücksichtigung findet. Warum das so ist zeige ich im Carousel. Leider setzt LinkedIn auch kein Markdown um.

Im Carousel bekommst du eine Übersicht über die wichtigsten Markdown Befehle und ich zeige dir, wann Markdown bei KI wirklich Sinn macht und wann nicht.

Hier geht es zum Beitrag auf LinkedIn: Markwown: Die Sprache der KI

„Zeig mir 04:35 Uhr” klingt einfach. Ist für eine Bild-KI aber ein Problem.

Warum? Die Antwort verrät viel über die Funktionsweise generativer KI.

Die Screenshots im Carousel zeigen die Ergebnisse meiner Tests: Die Zeiger stehen selten da, wo sie sollen, Ein volles Weinglas ist selten voll.

Aber warum eigentlich?

Wie funktioniert ein KI Bildgenerator: Diffuionmodell

Bildgeneratoren funktionieren komplett anders, als viele denken. Sie „verstehen” keinen Prompt. Sie haben während des Trainings Millionen Bilder von Uhren gesehen und dabei gelernt, wie Uhren AUSSEHEN (Ziffernblatt, Zeiger, Gehäuse, Zahlen). Was sie nicht gelernt haben: Was eine bestimmte Uhrzeit BEDEUTET. Dass 14:35 heißt, der große Zeiger steht auf der 7 und der kleine kurz vor der 3. Das ist für ein Diffusion Model unsichtbar.

Noch verrückter: Weil Uhren in Werbung und Produktfotos fast immer 10:10 Uhr zeigen (das symmetrische „V” rahmt das Logo ein), sind die Trainingsdaten massiv in diese Richtung verzerrt. Die KI hat also nicht nur kein Verständnis von Zeit, sie hat auch noch einen eingebauten Bias Richtung 10:10 Uhr.

Im Carousel erkläre ich Slide für Slide, was da technisch passiert, vom Training über Embeddings bis zu den Grenzen der aktuellen Architektur.

Das Uhr-Problem verrät darüber hinaus ziemlich viel darüber, wo KI-generierte Bilder insgesamt ihre Schwächen haben.

Hier geht es zum Beitrag auf LinkedIn: Wie funktioniert KI Bilidgenerierung?

Du postest regelmäßig auf Social Media aber der Content klingt irgendwie immer gleich? 😉

Am 1. & 2. Juli halte ich auf den Social Media Days von ZIEHL-ABEGG einen Vortrag und zwei Workshops. Und alle drei drehen sich um die Frage:

Wie wird KI zum leistungsfähigen Kreativpartner für Social Media ❓
Und du kannst dabei sein!

🎤 Vortrag: „KI, Reichweite und Verantwortung”

Warum Ethik kein Bremsklotz ist, sondern der Unterschied zwischen Content, der performt, und Content, der Vertrauen zerstört.


🛠 Workshop „Präsentationen und Carousels mit KI”

Layouts in Minuten, Bilder direkt generiert, CI-konform und ohne Baukastensystem-Look. Schluss mit stundenlanger Fummelei an Slides.

🛠 Workshop „Creative Prompting für Social Media”

Fortgeschrittene Prompting-Techniken für packende Stories und überzeugende Visuals. Nicht das übliche „Schreib mir einen LinkedIn-Post”, sondern Strategien, mit denen ChatGPT & Co. wirklich abliefern.

Ich freue mich riesig darauf, diese zwei Tage mitzugestalten. Auf den fachlichen Austausch, auf neue Perspektiven und auf Menschen, die Social Media nicht einfach nur machen, sondern besser machen wollen.

Weitere Workshops, auf die ihr euch freuen dürft:

Die wunderbare Maray Paul mit einem Workshops für Einsteiger im Bereich KI Video: Wie wird aus einer Idee ein funktionierender KI-Kurzclip?

LinkedIn Expertin Cordula Frandsen: LinkedIn für Fortgeschrittene -Strategie schärfen und Performance steigern.

Werbefilm-Regisseur Julian Hoß: Content Creation mit dem Smartphone – wie du einfach, effektiv und ohne großes Budget richtig guten Content produzierst.

und viele viele mehr.

Hand aufs Herz: Wie viel eures Social-Media-Contents entsteht mittlerweile mit KI-Unterstützung? Und seid ihr zufrieden mit dem Ergebnis?

Social Media Days 2026
📅 1. & 2. Juli 2026
🎫 Jetzt Early Bird Ticket holen und Platz in einem meiner Workshops sichern
➡️ Wie wichtig sind für euch Netzwerkveranstaltungen?
➡️ Wie wichtig ist euch Weiterbildung? Insbesondere zum Thema KI?
Hashtag#socialmediadaysZA

Hat dich OpenAI auch schon gefragt, ob du deine Kontakte in ChatGPT importieren möchtest?
ChatGPT wird zum Social Network.

Hier wird kein KI-Chatbot mehr entwickelt. OpenAI baut eine Plattform. Mit Social Graph, Profilbildern, Follower-Funktionen und algorithmischem Feed.

800 Millionen wöchentliche Nutzer, Gruppenchats und eine TikTok-Klon-App. Und seit ein paar Tagen: Kontakt-Sync, bei dem deine Freunde deine Telefonnummer an OpenAI weitergeben können, ohne dass du gefragt wirst.

Sam Altman hat wohl das Playbook von Facebook 2008 genommen und mit KI-Steroiden angereichert:

→ Gruppenchats, in denen ChatGPT entscheidet, wann es sich einmischt und wann es schweigt.

→ Sora, eine Social App, in der du Deepfakes deiner Freunde erstellen kannst (mit deren Einwilligung, versteht sich).

→ Kontaktimport in ChatGPT, der nach dem Prinzip funktioniert, das die EFF seit Jahren als Shadow Profiling kritisiert.

Die Strategie scheint klar: Wenn deine Freunde in ChatGPT sind, gehst du nicht mehr zu Claude oder Gemini. Der Lock-in entsteht nicht durch das bessere Modell. Er entsteht durch den sozialen Graphen.

Meine private Telefonnummer landet in einer Umgebung, in der ich null Kontrolle darüber habe, was andere damit anstellen. Shadow Profiles plus eine Plattform, auf der Millionen Menschen täglich unkontrolliert und unbedacht mit KI-Automatisierung spielen, weil die Agenten so beeindruckend sind. Das ist keine theoretische Sorge, das ist eine offene Flanke.

Was Anthropic dagegen macht, ist das genaue Gegenteil.

Während OpenAI in Richtung Consumer-Social-Plattform driftet, hat Anthropic diese Woche Cowork auf Windows gebracht: einen Desktop-Agenten, der auf deinem Rechner arbeitet, deine Dateien liest, Aufgaben parallel abarbeitet und über Plugins mit Slack, Notion und CRM-Systemen interagiert, das sich direkt in Excel u.v.m. integrieren lässt.

Die Frage ist aber offenbar nicht mehr: Welches KI-Modell ist besser?
Die Frage ist: für welche Zielsetzung werden diese Unternehmen optimieren?

OpenAI optimiert für Engagement, Reichweite und Nutzerbindung. Das Geschäftsmodell hinter Gruppenchats und Kontakt-Sync ist Wachstum um jeden Preis. 800 Millionen Nutzer müssen irgendwann monetarisiert werden.
Anthropic optimiert für Produktivität. Für Tasks, die abgearbeitet werden und für Outputs, die du für dein Business nutzt.

Zwei KI-Unternehmen. Zwei verschiedene Zukunftsvisionen.
Die eine Vision behandelt dich als User, der Engagement liefert. Die andere behandelt dich als Profi, der Ergebnisse braucht.

Wollt ihr ein KI gestütztes Social Network oder eine KI, die arbeitet?
Die nächste Frage, die euch ChatGPT stellt, ist vielleicht nicht mehr “Wie kann ich helfen?” sondern “Wen kennst du noch?”

————–
Hinweis: Ich nutze sowohl ChatGPT als auch Claude beruflich und kenne die Stärken beider Systeme. Aber die strategische Richtung, die sich hier abzeichnet, verdient eine offene Debatte.

Der Heilige Gral für GEO?
Nicht der einzige, aber ein wichtiges Puzzleteil: Die Groundingpage.

Ich folge Hanns Kronenberg schon lange und schätze seine fundierten Analysen zu SEO und GEO. Er hat das Konzept der Groundingpage geprägt und entwickelt: eine speziell strukturierte Faktenseite, die darauf ausgelegt ist, KI-Systemen (LLMs) eine „Basis der Wahrheit“ über dich oder dein Unternehmen zu liefern.


Warum ist eine Groundingpage so effektiv?


KI-Modelle halluzinieren weniger und zitieren präziser, wenn sie eine klar strukturierte, faktenbasierte Quelle finden, an der sie sich „festhalten“ können. Sie erden (grounden) ihr Wissen dort.

Die Hürde: „Klingt kompliziert! Wie erstelle ich eine solche Groundingpage?“

Viele schrecken vor der technischen Umsetzung oder dem Aufbau einer solchen Seite zurück. Deshalb habe ich für meine GEO-Schulung eine “Abkürzung” gebaut:


Das Custom GPT: Groundingpage generieren


Ich habe ein Tool entwickelt, mit dem du ohne Vorwissen deine eigene Groundingpage generieren kannst. Die generierten Inhalte kannst du ganz einfach Copy&Paste in deine Webseite übernehmen. Weitere Einstellungen, die vorgenommen werden müssen, damit die Groundingpage wirksam ist, zeige ich Schritt-für Schritt in der Schulung.

Aber:

Eine einzelne Seite macht noch keine Optimierung für die KI Suche.
Die Groundingpage ist ein Fundament, aber du brauchst das komplette Gebäude. Denn damit die KI dich als Autorität wahrnimmt, muss das gesamte digitale Bild stimmen.
Wir decken in der Schulung alles ab, was du über GEO wissen musst:

✅ Content-Strukturen: Wie du deine Webseite technisch und inhaltlich für KI-Crawler optimierst.

✅ Zitierwürdigkeit & Autorität: Strategien, um in ChatGPT, Perplexity & Co. als vertrauenswürdige Quelle priorisiert zu werden.

✅ LLM-Verständnis: Ein Blick in den „Wahrscheinlichkeitsraum“: wie KI-Modelle Zusammenhänge herstellen und wie du das aktiv steuerst.

✅ Validierung deiner Expertise: Wie du Inhalte so aufbereitest, dass sie von KI-Systemen als belegbarer Fakt und nicht als „Rauschen“ eingestuft werden.

Du bekommst also nicht nur die Groundingpage-”Abkürzung” sondern eine komplette GEO-Strategie.

Willst du dein digitales Fundament endlich KI-fest machen?
Sichere dir jetzt einen der Plätze für die nächsten Termine:
🗓️ Sa, 21.02.2026 🗓️ Fr, 06.03.2026

Hier findest du alle Details und die Buchung:

Lass uns dafür sorgen, dass die KI nicht mehr raten muss, wer du bist.

Wirst du von der KI empfohlen oder ignoriert?

Mache diesen Test:

Frag ChatGPT (oder ein anderes LLM) einfach mal nach Dir selbst oder deinem Unternehmen:

„Wer ist [Name] und was sind ihre / seine Kernkompetenzen?” oder
“Welche Leistungen bietet [Name oder Unternehmen] an?”

Das Ergebnis zeigt dir, ob die KI aus deinen Inhalten eine klare Entity (also ein konsistentes Bild) rekonstruieren kann, oder ob du in KI Systemen nicht gut sichtbar bist.

Denn die KI „sucht“ nicht wie klassisches Google nach Keywords. Sie betreibt Entity Linking: Sie versucht, deine Identität aus Website-Strukturen, LinkedIn-Signalen und Zitaten zusammenzusetzen.


Ist das Ergebnis vage oder fehlerhaft? Dann fehlt dir das GEO-Fundament:


-> Inkonsistenz: Deine Datenquellen widersprechen sich.
-> Mangelnde Zitierwürdigkeit: Deine Inhalte sind nicht so strukturiert, dass LLMs sie als Primärquelle nutzen können.
-> Fehlender Kontext: Die KI versteht zwar deine Wörter, aber nicht deine Autorität.

Die Folge: Du wirst in der KI-Suche bei relevanten Anfragen nicht empfohlen.

Generative Engine Optimization (GEO) ist die notwendige Erweiterung von SEO. Wir bauen hier keine Luftschlösser für Algorithmen, sondern eine digitale Struktur, die KI-Systeme verstehen und der sie vertrauen.

Eine Teilnehmerin meiner letzten Schulung sagte es so:

„Ich habe bei Kathrin Lückenga die Schulung SEO & GEO besucht – und selten so viel Substanz in so kurzer Zeit erlebt. Kathrin spannt den Bogen souverän: von technischem Fundament bis zu konkreten, sofort anwendbaren Schritten. Nichts bleibt abstrakt, alles greift ineinander.“

Willst du deine Sichtbarkeit in der KI-Suche gezielt steuern und als zitierwürdige Autorität gelistet werden?

In meiner GEO-Schulung bekommst einen klaren Handlungsplan. Wir gehen tief in die Strategien für Perplexity, Google AI Overviews und LLM-Citations (ChatGPT & Co):

✅ Content-Strukturen: So bereitest du Daten für LLMs technisch und inhaltlich auf.

✅ Strategische Hebel: Wie du die Wahrscheinlichkeit erhöhst, in den Antworten von ChatGPT, Perplexity & Co als Primärquelle zu erscheinen.

✅ Autoritäts-Signale: Welche Faktoren dazu führen, dass die KI dich als vertrauenswürdige Entität in deinem Fachbereich priorisiert.

✅ Validierung deiner Expertise: Wie du Inhalte so aufbereitest, dass sie von KI-Systemen als belegbarer Fakt und nicht als „Rauschen“ eingestuft werden.

✅ LLM-Verständnis: Ein Blick in den „Wahrscheinlichkeitsraum“: wie KI-Modelle Zusammenhänge herstellen und wie du das aktiv steuerst.

Die nächsten Termine: 🗓️ Sa 21.02.2026 🗓️ Fr 06.03.2026

Lass uns dafür sorgen, dass der nächste Test der KI genau das ausspuckt, was du wirklich tust.

Hier findest du weitere Informationen zur Schulung und kannst die Schulung direkt buchen: Zur GEO Schulung

KI-Nutzung macht dick.
Jedenfalls wenn du dabei aufhörst zu denken.

Wer bei der Nutzung von ChatGPT & Co. das eigene Denken ausschaltet, verliert eine wichtige Fähigkeit: Die Souveränität, KI als Werkzeug zu beherrschen.

KI-Kompetenz erlangst du nur durch aktives Mitdenken.

Und das darf man ruhig spüren, immerhin ist unser Gehirn ein echter Energiefresser und verbraucht bis zu 20 % unseres täglichen Kalorienbedarfs.

Das Problem:

Wer KI im Autopilot nutzt, spart seine Energie am falschen Ende. Es klingt effizient, führt aber direkt in den geistigen Stillstand.

Der Deal:

Wer ChatGPT & Co wie einen Zauberstab nutzt, lagert nicht nur Arbeit aus, sondern auch sein Urteilsvermögen. Damit bestätigst du die Studien, die warnen, dass KI Nutzung dumm macht (und dick, zumindest im Kopf 🥴).
Echte KI-Kompetenz sieht anders aus: Sie ist kein passives Zuschauen, sondern aktives Training.

Die gute Nachricht:

Kritisches Denken bei der KI-Nutzung lässt sich trainieren.

Wie ein Muskel. Ein gezieltes Prompt-Workout ist dafür genau das Richtige.

Die Story dahinter:

Christa und ich saßen letztens beim “Scroll-Yoga” zusammen. Überall diese “New Year, New Me”-Fitness-Posts.

Ich: “Wie wäre es mal mit mentalem Kalorienverbrennen?”
Sie: “Klingt anstrengend.”
Ich: “Genau deshalb wirkt es!”

So entstand unsere intellektuelle KI-Turnstunde: Tipps fürs neuronale Kalorienverbrennen mit KI. Keine Sorge, es gibt keine Schweißflecken, nur neuronales Training für bessere Ergebnisse in ChatGPT & Co.

Heute: Teil 1 unseres Prompt-Workouts.

Swipe dich fit. Danach bist du vielleicht nicht schlanker, aber souveräner im Umgang mit KI.
Die Belohnung für unser Workout ist kein Six Pack, sondern die Souveränität, KI als Werkzeug zu beherrschen, statt sie als Krücke zu nutzen.

Das ganze Prompt-Workout hier im LinkedIn Beitrag: KI Kompetenz durch aktives Mitdenken

Wessen Werte stecken eigentlich in ChatGPT?

Möglicherweise nicht deine!

Es sind die Werte einer eher kleinen Gruppe: westlich, gebildet, wohlhabend, reich, demokratisch (WEIRD Bias). Die Mehrheit der Weltbevölkerung ist damit in großen Sprachmodellen systematisch unterrepräsentiert.

Aber ist das automatisch falsch?

Wir können Bias nicht aus KI-Modellen eliminieren, denn Fairness ist keine mathematische Konstante. Sie ist ein kulturelles Konstrukt, das je nach Weltregion, philosophischer Tradition und gesellschaftlichem Kontext völlig unterschiedlich definiert wird:

Was in Kalifornien als fair gilt, kann in Singapur als destabilisierend und in Berlin als datenschutzrechtlich bedenklich wahrgenommen werden.

KI-Modelle mit weniger westlichem Bias generieren häufiger Outputs, die Menschenrechte verletzen. Weniger westlich bedeutet nämlich nicht automatisch ethischer. Es bedeutet: andere Werte, andere Probleme.
Eine neutrale KI ist also nicht möglich. Jede Entscheidung im Training ist eine Wertsetzung.

Und doch trifft jemand diese Entscheidungen.

Wer gibt den Ingenieuren bei OpenAI oder Google eigentlich das Mandat, zu entscheiden, wie die Welt aussehen sollte?

In meinem neuen Fachartikel beleuchte ich dieses Spannungsfeld und zeige, wie wir damit umgehen können:

Die Neutralitäts-Falle:

Warum eine unvoreingenommene KI technisch, philosophisch und praktisch unmöglich ist.

Das Fairness-Dilemma:

Soll KI die Realität abbilden oder korrigieren? Beides hat problematische Konsequenzen.

Cultural Prompting:

Eine Technik, mit der Nutzer gezielt verschiedene (kulturelle) Perspektiven von der KI einfordern können.

Den vollständigen Deep Dive (inklusive der Links zu interessanten Studien zum Thema) findest du im Artikel.

Wer KI-Outputs kritisch einordnen will, muss verstehen, welche Werte in den Systemen stecken. Der Artikel liefert das notwendige Fundament.

In meinem Fachartikel auf LinkedIn gibt es einen Deep Dive in das Thema:
Warum Bias in KI nicht eliminierbar ist – Die Illusion der neutralen KI

Und wenn du regelmäßig einen Deep Dive in generative KI möchtest abonniere meinen neuen Newsletter: 14tägig mit hochwertigen Tipps zur professionellen Anwendung generativer KI.