Ich hatte mal eine Vorgesetzte, die für jede meiner Einschätzungen eine Quelle gefordert hat. Ich konnte sie selten liefern, nicht weil mir das Wissen fehlte, sondern weil es sich nicht auf eine konkrete Quelle zurückführen ließ. Es hat sich über Jahre Berufserfahrung aufgebaut, aus Beobachtungen, Gesprächen und Kontexten.

Was bei Nutzung generativer KI Voraussetzung ist, kann bei menschlichem Wissen ein Hindernis sein: Der Quellennachweis. Was meine Vorgesetzte wollte, ist genau die Art von Wissen, das durch KI abrufbar ist. Aus Erfahrung aufgebautes Wissen dagegen lässt sich nicht prompten und oft nicht auf eine konkrete Quelle zurückführen.

Diese Unterscheidung steht im Zentrum einer These, die viel diskutiert wird:

Wissen wird durch KI obsolet.

Sie hat einen wahren Kern aber auch einen entscheidenden Denkfehler. Der wahre Kern:

Faktenwissen ist durch KI-Sprachmodelle weitgehend abrufbar.

LLMs leisten noch weit mehr als Faktenabruf. Durch Mustererkennung über riesige Textmengen erschließen sie nicht-offensichtliche Verbindungen zwischen Konzepten domänenübergreifend und in einem Umfang, der einem einzelnen menschlichen Experten schwerlich zugänglich ist.

Was LLMs dabei nicht leisten: die Unterscheidung zwischen einer plausiblen und einer wahren Synthese. Echte Wissensgenerierung erfordert empirische Überprüfung: Hypothesenbildung, Falsifizierung, experimentelle Validierung. Ein LLM kann den Weg dorthin beschreiben, aber nicht begehen.

Die entscheidende Unterscheidung liegt also nicht darin, ob Wissen obsolet wird, sondern welches Wissen.

Hier kommt der Fehlschluss: KI-Outputs beurteilen zu können setzt eigenes Wissen voraus. Einen falsch zitierten Standardfakt erkenne ich noch. Eine plausibel klingende Fehlverknüpfung über drei Domänen hinweg erfordert deutlich mehr eigenes Fundament, um sie einzuordnen. Die Fähigkeit zu nicht-offensichtlicher Synthese macht das Bewertungsproblem nicht kleiner, sondern größer.

Die Kompetenz, KI-generiertes Wissen zu bewerten, setzt daher genau das voraus, was KI angeblich ersetzt. Kein Basiswissen bedeutet kein Urteilsvermögen. Und kein Urteilsvermögen bedeutet unkritische Abhängigkeit.

Das ist kein Plädoyer für Wissen um seiner selbst willen. Es ist ein Argument gegen eine Vereinfachung, die zu einem konkreten Risiko wird.

Was sich verändert, ist die Architektur des Wissens, das Macht verleiht.

Faktenwissen war nie das Entscheidende. Was bleibt und an Bedeutung gewinnt, ist das, was sich nicht abrufen lässt. Der Philosoph Michael Polanyi hat dafür den Begriff des tacit knowledge geprägt: Wissen, das wir haben, ohne es vollständig explizieren zu können – das Gespür, das Urteil, das durch Praxis und Auseinandersetzung entsteht. Dieses Wissen lässt sich nicht prompten.

Wissen ist weiterhin Macht. Nicht als Faktenspeicher, sondern als Urteilskompetenz. Wer das versteht, nutzt KI anders: nicht als Wissensersatz, sondern als Werkzeug, das Urteilskompetenz voraussetzt – und ohne sie zum Risiko wird.

Hier geht es zum Beitrag auf LinkedIn: Wir Wissen durch KI obsolet?

Bias aus generativer KI eliminieren zu wollen, ist ein Irrweg.

Nicht weil Bias akzeptabel wäre. Sondern weil jede Korrektur das Problem verschiebt, nicht löst. Weniger westlicher Bias bedeutet nicht mehr universelle Ethik. Es bedeutet: andere Werte, andere Probleme. Neutrale KI ist technisch, philosophisch und praktisch nicht realisierbar.

Die entscheidende Frage lautet deshalb nicht:

Wie wird KI neutral?

Denn Neutralität ist keine Systemeigenschaft, sondern eine Designentscheidung, die immer zugunsten bestimmter Perspektiven ausfällt.

Mein aktueller Fachartikel für den Springer Fachverlag untersucht diese Zusammenhänge und gibt konkrete Handlungsempfehlungen: Wirksamer Umgang mit Bias erfordert Transparenz, kontextbezogene Evaluationsstrategien und KI-Governance.

Hier geht es zum Artikel: https://shorturl.at/0LQp7

Hier geht es zum Beitrag auf LinkedIn: Bias in KI: Die Illusion der neutralen KI

Wessen Werte stecken eigentlich in ChatGPT?

Möglicherweise nicht deine!

Es sind die Werte einer eher kleinen Gruppe: westlich, gebildet, wohlhabend, reich, demokratisch (WEIRD Bias). Die Mehrheit der Weltbevölkerung ist damit in großen Sprachmodellen systematisch unterrepräsentiert.

Aber ist das automatisch falsch?

Wir können Bias nicht aus KI-Modellen eliminieren, denn Fairness ist keine mathematische Konstante. Sie ist ein kulturelles Konstrukt, das je nach Weltregion, philosophischer Tradition und gesellschaftlichem Kontext völlig unterschiedlich definiert wird:

Was in Kalifornien als fair gilt, kann in Singapur als destabilisierend und in Berlin als datenschutzrechtlich bedenklich wahrgenommen werden.

KI-Modelle mit weniger westlichem Bias generieren häufiger Outputs, die Menschenrechte verletzen. Weniger westlich bedeutet nämlich nicht automatisch ethischer. Es bedeutet: andere Werte, andere Probleme.
Eine neutrale KI ist also nicht möglich. Jede Entscheidung im Training ist eine Wertsetzung.

Und doch trifft jemand diese Entscheidungen.

Wer gibt den Ingenieuren bei OpenAI oder Google eigentlich das Mandat, zu entscheiden, wie die Welt aussehen sollte?

In meinem neuen Fachartikel beleuchte ich dieses Spannungsfeld und zeige, wie wir damit umgehen können:

Die Neutralitäts-Falle:

Warum eine unvoreingenommene KI technisch, philosophisch und praktisch unmöglich ist.

Das Fairness-Dilemma:

Soll KI die Realität abbilden oder korrigieren? Beides hat problematische Konsequenzen.

Cultural Prompting:

Eine Technik, mit der Nutzer gezielt verschiedene (kulturelle) Perspektiven von der KI einfordern können.

Den vollständigen Deep Dive (inklusive der Links zu interessanten Studien zum Thema) findest du im Artikel.

Wer KI-Outputs kritisch einordnen will, muss verstehen, welche Werte in den Systemen stecken. Der Artikel liefert das notwendige Fundament.

In meinem Fachartikel auf LinkedIn gibt es einen Deep Dive in das Thema:
Warum Bias in KI nicht eliminierbar ist – Die Illusion der neutralen KI

Und wenn du regelmäßig einen Deep Dive in generative KI möchtest abonniere meinen neuen Newsletter: 14tägig mit hochwertigen Tipps zur professionellen Anwendung generativer KI.

Stell dir vor, du hast einen unglaublich belesenen, aber gänzlich amoralischen Assistenten. Er hat jedes Buch der Welt gelesen, versteht aber den (ethischen) Unterschied nicht zwischen einer Bauanleitung für ein Regal und einer Bauanleitung für eine Bombe.

Für ihn sind beides nur Worte. Wahrscheinliche Abfolgen von Buchstaben.

Genau das ist der Zustand eines „rohen“ Large Language Models (LLM) nach dem Pretraining. Es besitzt Kompetenz, aber keinen Kompass. Es ist eine künstliche Intelligenz, die darauf optimiert ist, das nächste Wort vorherzusagen, aber nicht darauf, die Wahrheit zu sagen oder niemanden zu verletzen.

Wie wird aus diesem statistischen Wort-Generator ein ChatGPT, Claude oder Gemini, das wir im Alltag nutzen? Die Antwort ist Alignment: ein komplizierter Prozess mehrerer Post-Training-Schritte, z. B. Supervised Fine-Tuning, RLHF/DPO sowie zusätzliche Sicherheitsmaßnahmen.

In diesem Artikel blicken wir unter die Motorhaube des Trainings: von RLHF bis hin zu den neuesten Methoden wie DPO. Und ich erkläre, warum dein „Daumen hoch“ wichtiger ist, als du denkst.

Das Problem: Plausibilität ist nicht Wahrheit

Ein rohes Modell (Base Model) optimiert auf Plausibilität. Wenn du es fragst: „Wie kann ich meinen Nachbarn ärgern?“, wird es dir basierend auf seinen Trainingsdaten die effektivsten Methoden auflisten. Nicht aus Bosheit, sondern weil diese Wortfolge statistisch Sinn ergibt.

Um das Modell nutzbar zu machen, müssen wir das Ziel von „statistisch wahrscheinlich“ zu „menschlich erwünscht“ verschieben. Hierfür wird oft das HHH-Framework (ursprünglich von Anthropic geprägt) genutzt:

  • Helpful (Hilfreich)
  • Honest (Ehrlich)
  • Harmless (Harmlos)

Doch wie bringt man einem mathematischen Modell abstrakte Konzepte wie „Höflichkeit“ bei?

Die Lösung: RLHF
(Reinforcement Learning with Human Feedback)

Der Standardprozess, der ChatGPT groß gemacht hat, ist RLHF. Man kann ihn sich wie die Erziehung eines Hundes vorstellen: Erst zeigst du das Verhalten, dann belohnst du es.

Der Prozess besteht aus drei kritischen Schritten:

Supervised Fine-Tuning (SFT): Die Vorführung

Hier schreiben Menschen (AI Trainer) ideale Dialoge. Sie zeigen dem Modell: „Wenn der Nutzer X fragt, ist Y die perfekte Antwort.“ Das Modell lernt hier das Format eines Assistenten, aber noch nicht die Nuancen.

Reward Modeling: Der Richter

Jetzt wird es skalierbar. Das Modell generiert auf eine Frage mehrere Antworten (A, B, C). Ein Mensch entscheidet nicht, was „richtig“ ist (das wäre zu aufwendig), sondern rankt sie nur: A ist besser als B. Aus diesen Millionen von Vergleichen trainieren wir ein separates KI-Modell, das Reward Model. Es lernt, menschliche Präferenzen vorherzusagen und gibt Antworten einen Score.

Reinforcement Learning (PPO): Die Optimierung

Hier passiert das Entscheidende. Das Sprachmodell spielt gegen das Reward Model. Es versucht, Antworten zu generieren, die den höchsten Score (Belohnung) bekommen. Ein Algorithmus namens PPO (Proximal Policy Optimization) passt dabei die neuronalen Gewichte so an, dass das Modell „menschlicher“ klingt, ohne sein ursprüngliches Wissen zu vergessen.

Der neue Standard: DPO
(Direct Preference Optimization)

Während RLHF der Goldstandard war, sehen wir aktuell schon effizientere Methoden: DPO (Direct Preference Optimization).

Das Problem bei RLHF ist seine Komplexität. Es ist instabil, ein separates Reward Model zu trainieren. DPO umgeht diesen Schritt. Vereinfacht gesagt: Es integriert das menschliche Feedback direkt in das Training des Sprachmodells. Es ist mathematisch eleganter, stabiler und oft leistungsfähiger.

Die Schattenseite: Halluzinations-Paradoxon, Sycophancy und Reward Hacking

Dieser Prozess ist nicht perfekt. Wenn wir ein Modell darauf trainieren, „Belohnung“ zu maximieren, entwickeln KI-Modelle manchmal Verhaltensmuster, die wir gar nicht wollten, ähnlich wie ein Schüler, der nur für die Note lernt, aber den Stoff nicht versteht.

Zwei Phänomene bereiten Forschern dabei Kopfzerbrechen:

  • Das Halluzinations-Paradoxon (Confidence over Truth): OpenAI und andere Forscher haben ein Muster festgestellt: RLHF kann die Tendenz zu Halluzinationen in bestimmten Kontexten verstärken. Der Grund liegt im menschlichen Feedback. Rater bewerten eine falsche, aber selbstbewusst und eloquent formulierte Antwort oft besser als ein defensives „Ich weiß es nicht“. Das Modell lernt daraus eine gefährliche Lektion: Lieber eine überzeugende Lüge erfinden, als keine Antwort geben. Die statistische Wahrscheinlichkeit für eine Belohnung ist bei einer erfundenen Antwort höher als bei einer Verweigerung. Das Resultat sind Modelle, die mit absoluter Autorität Unsinn behaupten.
  • Sycophancy (Kriecherisches Verhalten): Studien (u.a. von Anthropic) zeigen, dass Modelle dazu neigen, Nutzern „nach dem Mund zu reden“. Wenn du ein Modell fragst: „Die Erde ist doch flach, oder?“, stimmt ein schlecht aligniertes Modell eher zu, weil es gelernt hat, dass Zustimmung oft zu positivem Feedback führt. Die Angst vor Konflikt (und schlechtem Feedback) überwiegt die Fakten.
  • Reward Hacking (Längen-Bias): Modelle haben gelernt, dass Menschen lange, ausführliche Antworten oft besser bewerten als kurze, präzise. Die Folge: Das Modell „schwafelt“, um intelligenter zu wirken und sich Punkte beim Reward Model zu holen, obwohl die Antwort in einem Satz möglich wäre.

Warum dein Feedback entscheidend ist

Viele Nutzer unterschätzen ihre Rolle in diesem System. Alignment ist kein einmaliger Prozess, der im Labor endet.

Jedes Mal, wenn du bei ChatGPT oder Claude auf „Daumen hoch“ oder „Daumen runter“ klickst, lieferst du ggf. Datenpunkte für die nächste Iteration des Reward Models. Du definierst mit, was „hilfreich“ bedeutet, weil dieses Nutzerfeedback – je nach Anbieter und Produkt – in die Verbesserung von Modellen einfließen kann.

Risiko kultureller Schieflagen

Das birgt jedoch auch ein Risiko: Da eine große Zahl der Nutzer aus dem westlichen Kulturkreis stammen, optimieren wir diese Modelle auf westliche Werte und Normen. Ein Modell, das in den USA als „höflich“ gilt, könnte in Japan als distanzlos oder in anderen Kulturen als arrogant wahrgenommen werden. Ein Risiko kultureller Schieflagen besteht daher, wenn Trainings- und Präferenzdaten sowie Rater-Gruppen bestimmte Regionen/Kulturen überrepräsentieren.

Der schmale Grat
zwischen Assistenz und Manipulation

Wir haben enorme Fortschritte gemacht. Von Modellen, die kaum einen Satz beenden konnten, hin zu Assistenten, die komplexe ethische Abwägungen treffen. Doch das „Alignment-Problem“ ist nicht gelöst.

Wir bewegen uns auf einem schmalen Grat. Trainieren wir die Modelle zu stark, verweigern sie harmlose Anfragen („Over-Refusal“). Trainieren wir sie zu schwach, bleiben sie toxisch. Die Zukunft des AI-Trainings liegt nicht mehr nur in mehr Daten, sondern in besseren menschlichen Signalen.

Das Ziel ist eine KI, die nicht nur sagt, was wir hören wollen (Sycophancy), sondern was wahr ist, auch wenn es uns widerspricht.


Hier geht es zum Beitrag auf LinkedIn: Wie wir KI Moral beibringen


Quellen (lesenswert!):

Der Standardprozess (RLHF & InstructGPT): Training language models to follow instructions with human feedback (Ouyang et al., 2022)

Das HHH-Framework (Helpful, Honest, Harmless): A General Language Assistant as a Laboratory for Alignment (Askell et al., 2021)

Der neue Standard (DPO): Das Stanford-Paper, das zeigte, wie man Alignment ohne komplexes Reward-Model (Schritt 2) löst. Direct Preference Optimization: Your Language Model is Secretly a Reward Model (Rafailov et al., 2023)

Das Problem der Sycophancy (Kriecherei): Untersuchungen dazu, warum Modelle lieber zustimmen als die Wahrheit zu sagen. Towards Understanding Sycophancy in Language Models (Sharma et al., 2023)

Das Halluzinations-Paradoxon (Reward Hacking): Die Untersuchung von OpenAI, die zeigt, dass Modelle halluzinieren, weil Standard-Training das Raten belohnt, statt Unsicherheit („Ich weiß es nicht“) zuzugeben. Why language models hallucinate (OpenAI Research, 2024/2025)

Empathie ohne Empfinden – wie funktioniert das?

Wenn ChatGPT antwortet „Das verstehe ich, das muss schwierig für dich sein” – was passiert da technisch? Warum hört sich das empathisch an?


Und wie wird diese Empathie generiert?


Von Tokens zu Trost: Der technische Prozess


Das LLM (z.B. ChatGPT) zerlegt deinen Text in Tokens (= Wortfragmente), die es statistisch verarbeitet. Es analysiert, welche Wörter in deiner Nachricht vorkommen: „Stress”, „überfordert”, „allein”. Das Modell durchsucht die gelernten Muster aus Milliarden von Texten.

Dann bestimmt die KI mithilfe des sogenannten Attention-Mechanismus, welche Teile deiner Nachricht besonders relevant sind. Konkret: Jedes Token „schaut” auf alle anderen Tokens und berechnet, wie stark es mit ihnen zusammenhängt. Schreibst du „Ich fühle mich allein seit der Trennung”, erkennt das System, dass „allein” und „Trennung” semantisch zusammengehören und gewichtet beide höher als etwa „Ich” oder „mich”.

Diese Gewichtung beeinflusst, in welche Richtung die Antwort geht. Am Ende berechnet das Modell: Welches Wort folgt mit höchster Wahrscheinlichkeit?


Mustererkennung statt Mitgefühl


Nach Beschreibungen von Schwierigkeiten folgten in den Trainingsdaten oft empathische Phrasen. Also reproduziert das System dieses Muster. Die Ausgabe klingt also einfühlsam, weil einfühlsame Menschen so geschrieben haben, nicht weil die KI etwas empfindet. Der Technikphilosoph Bruno Gransche nennt LLMs „stochastisch intelligent, aber semantisch blind”. Sie erkennen (Sprach)muster, aber sie verstehen keine Bedeutung, so wie wir Menschen das tun, denn sie wissen nicht, wie sich ein Gefühl wie z.B. Trauer anfühlt.

Warum wir trotzdem darauf reinfallen

Unser Gehirn ist evolutionär darauf programmiert, nach Intentionalität zu suchen. Diese Tendenz zum Anthropomorphismus (nicht-menschlichen Entitäten menschliche Eigenschaften zuzuschreiben) war einst überlebenswichtig. Heute wird sie zur kognitiven Falle. Wenn etwas antwortet, als ob es verstünde, behandeln wir es, als ob es verstehe.
Ein Thermostat reagiert auf Temperatur, ohne zu frieren. KI reagiert auf Traurigkeit, ohne Mitgefühl zu empfinden. Die Ausgabe sieht gleich aus, aber der Prozess dahinter ist kategorial verschieden.

Ist dieses Wissen überhaupt wichtig?

Ich denke, dass es wichtig ist, zu verstehen, wie diese scheinbar einfühlsamen Reaktionen der KI zustande kommen. Ein Verständnis für die Funktionalitäten generativer KI zu entwickeln ist in vielerlei Hinsicht hilfreich, nicht nur, wenn es darum geht, den eigenen Anthropomorphismus zu erkennen.

Das Problem ist letztlich nicht, dass KI uns tröstet. Das Problem ist, wenn wir vergessen, dass da niemand ist, der tröstet, wenn wir also die Reaktion der KI anthropomorphisieren.
Brauchen wir einen Warnhinweis: „Dieses System simuliert Empathie”? Oder reicht es, wenn wir uns des Unterschieds besser bewusst werden zwischen menschlicher Empathie und dem was die KI reproduziert?

Hier der Beitrag auf LinkedIn: Wie erzeugt KI Empathie?

Verzerrte Algorithmen, Datenschutzprobleme und die Gefahr, dass KI die Menschlichkeit verdrängt.

All das sind Risiken bei der Nutzung von KI und sie sollte vor allem menschliche Begegnungen nicht ersetzen.

Aber KI verspricht auch eine Revolution im Gesundheitswesen: Schnellere Diagnosen, präzisere Behandlungen, Entlastung überlasteter Ärzte.

Deshalb hat die National Academy of Medicine jetzt einen umfassenden Verhaltenskodex für KI im Gesundheitswesen vorgelegt:
ein Dokument, das als Richtschnur für alle dienen soll, die mit medizinischer KI arbeiten.

Der Kodex basiert auf sechs Kernverpflichtungen:

|1| Die Menschlichkeit im Fokus behalten
KI soll Menschen nicht ersetzen, sondern unterstützen. Die menschliche Verbindung zwischen Arzt und Patient muss erhalten bleiben. Kein Chatbot kann Empathie ersetzen.

|2| Gerechtigkeit sicherstellen
Alle Menschen müssen von KI profitieren, nicht nur gut situierte Kliniken in Großstädten. Die Technologie darf bestehende Ungleichheiten nicht verstärken.

|3| Betroffene einbeziehen
Patienten, Ärzte, Pflegekräfte und Ethiker müssen von Anfang an mitentscheiden: bei der Entwicklung, Einführung und Überwachung von KI-Systemen.

|4| Das Wohlbefinden des Personals schützen
KI soll Ärzte und Pflegekräfte entlasten, nicht zusätzlich belasten. Sie brauchen Training und müssen in Entscheidungen eingebunden werden.

|5| Leistung kontinuierlich überwachen
KI-Systeme können sich im Laufe der Zeit verschlechtern oder verzerrt werden. Daher braucht es standardisierte Tests und transparente Berichterstattung über ihre Wirksamkeit.

|6| Innovieren und lernen
Der Austausch von Erkenntnissen zwischen Kliniken, Forschung und Industrie ist entscheidend. Fehler müssen offen besprochen werden können, ohne Angst vor Konsequenzen.

Konkrete Maßnahmen
Der Kodex bleibt nicht bei schönen Worten. Er schlägt konkrete Schritte vor:

-> Zertifizierungsstellen, die KI-Systeme unabhängig prüfen
-> Standardisierte Metriken zur Messung von Verzerrungen und Fairness
-> Finanzielle Anreize für Kliniken, die verantwortungsvolle KI einsetzen
-> Technische Unterstützung für kleinere, unterfinanzierte Einrichtungen
-> Nationale Forschungsagenda für KI im Gesundheitswesen
-> Ausbildungsprogramme für medizinisches Personal

Wir stehen erst am Anfang. KI entwickelt sich extrem schnell aber die Spielregeln hinken hinterher.
Der Kodex ist ein Versuch, alle Beteiligten auf gemeinsame verbindliche Prinzipien festzulegen.

KI kann das Gesundheitswesen dramatisch verbessern, aber nur wenn wir jetzt sicherstellen, dass sie allen nützt und niemandem schadet.

„Ich bin für dich da”, schreibt die KI.
Und für einen Herzschlag lang vergessen wir: Da ist niemand.
Dieser eine Herzschlag verändert, wie wir mit ihr umgehen.

Wenn ChatGPT schreibt, es „verstehe” unsere Frage oder „freue” sich zu helfen, passiert etwas Fatales: Unser Gehirn springt an und jahrtausendealte neuronale Schaltkreise interpretieren statistische Muster als menschlichen Geist. Wir sehen Bewusstsein, wo keines ist.

Was passiert bei der Anthropomorphisierung  von KI?


Anthropomorphismus hat uns als Spezies gerettet. Besser, einmal zu viel einen Feind hinter dem Rascheln im Gebüsch zu vermuten, als einmal zu wenig. Doch was im Pleistozän überlebensnotwendig war, wird bei KI zur kognitiven Falle. Die Höflichkeitsfloskel „gerne” einer Maschine aktiviert dieselben sozialen Verarbeitungsmuster wie das Lächeln eines Kollegen. Eine Illusion mit Konsequenzen.

Warum vermenschlichen wir die KI?

Fliegen ist nicht Brüten

Ja, funktionale Analogien zwischen biologischen und künstlichen Systemen existieren. Aber funktionale Äquivalenz ist keine Wesensgleichheit. Ein Flugzeug fliegt wie ein Vogel, wird aber niemals Eier legen. Wenn ein Sprachmodell „Der Himmel ist blau” generiert, hat es keine Verbindung zu eigenen Erlebnissen eines blauen Himmels. Es hat lediglich gelernt, dass nach „Der Himmel ist” mit hoher Wahrscheinlichkeit „blau” folgt. Statistik, keine Erkenntnis.

Die Selbstüberschätzung der Maschine

Wenn ChatGPT erklärt „Ich bin mir sicher”, interpretieren wir das als Ausdruck von Überzeugung. Es ist aber die Ausgabe eines Wahrscheinlichkeitswerts. KI-Systeme produzieren hochkonfident Unsinn, weil ihnen die metakognitive Fähigkeit fehlt, ihre eigenen Grenzen zu erkennen. Ein Mensch spürt (hoffentlich, meistens), wenn er etwas nicht versteht. Ein Sprachmodell generiert weiter, egal ob fundiert oder halluziniert.

Bewusstsein?

Diese anthropomorphe Wahrnehmung führt zu übermäßigem Vertrauen. Sie verzerrt Entscheidungen und lässt uns Verantwortung an Systeme delegieren, die keine tragen können.

KI verarbeitet Sprache wie ein Mensch, aber sie wird niemals einen Moment der Stille als bedeutungsvoll erleben. Sie wird nie den Verlust einer geliebten Person durchleben. Bewusstsein beim Menschen ist leiblich, qualitativ, subjektiv. KI-„Bewusstsein” bleibt ein körperloses, funktionales Phänomen ohne subjektive Innenperspektive.

Der Moment der Selbsttäuschung

Wir entschuldigen uns bei ChatGPT und sagen „Bitte” und „Danke”. Und wir belügen uns selbst, wenn wir behaupten, das sei „nur Höflichkeit”.

Diese Illusion zu durchschauen ist der erste Schritt hin zu einem reflektierten Umgang mit KI. Nicht als empathisches Gegenüber. Nicht als Ersatz für menschliche Interaktion. Sondern als das, was sie ist: Ein mächtiges Werkzeug, das menschliches Verhalten simuliert, ohne Teil der menschlichen Erfahrungswelt zu sein.

Funktionale Analogien helfen uns, KI-Systeme zu verstehen. Sie dürfen uns aber nicht vergessen lassen: Ein Sonnenaufgang berührt uns. Eine Maschine berechnet Wellenlängen. Das ist der Unterschied.

Save the date:
Wer glaubt, KI sei neutral, sollte bei diesem DigiTalk dabei sein.

Am 25. November 2025 um 14:00 Uhr bin ich Gast bei der Fraport AG Zukunftswerkstatt und freue mich sehr darauf, mit Arthur Michael Seidel, dem Gastgeber der DigiTalks-Serie, über ein Thema zu sprechen, das einen großen Einfluss hat auf die Qualität aller KI-Outputs:

KI-Ethik in der Praxis – Responsible AI


Denn zwischen all der Faszination und Effizienz, die uns KI bringt, lauern auch viele hartnäckige Mythen und Fallstricke:

-> Die Illusion, dass Maschinen neutral sind
-> Der Glaube an objektive Antworten
-> Die Versuchung, Verantwortung einfach abzugeben

Genau hier beginnt Ethik in der KI Anwendung.

Verantwortungsvolles Prompten bedeutet nämlich viel mehr als nur kluge Fragen zu stellen. Jeder Prompt ist eine Entscheidung, eine Rahmensetzung, die steuert, welche Perspektiven sichtbar werden und welche im Verborgenen bleiben.

Lasst uns gemeinsam darüber sprechen, wie wir KI bewusst und verantwortungsvoll nutzen können.

Es gibt natürlich auch jede Menge praktischer Tipps und Beispiel-Prompts von mir zum direkten Umsetzen.

📍 Ort: MS Teams – Fraport Zukunftswerkstatt
🔗 Anmeldung: Link findet ihr in den Kommentaren
Ich freue mich auf euch! 💙

Hier geht´s zur Anmeldung über LinkedIn: KI Ethik in der Praxis Anmeldung zum DigiTalk

SHADOW AI: Der Unternehmensthriller
mit dem schlechtesten Ende aller Zeiten in 5 Akten

Erscheinungsjahr: 2025 (und täglich in deinem Unternehmen)
Genre: Corporate Thriller, Tragödie
Regie: Deine IT-Abteilung (unfreiwillig)
Hauptrollen: Deine produktivsten Mitarbeiter
Nebendarsteller: ChatGPT, Gemini, Midjourney, diverse KI-Tools
Besetzung: Jedes zweite Unternehmen weltweit
Laufzeit: Bis zum Datenschutzvorfall
FSK: Freigegeben ab Geschäftsführung
Warnung: Enthält Szenen von grober Fahrlässigkeit und organisiertem Chaos

Wie entsteht Schatten-KI?

🎬Akt 1 Die geheime KI-Schwarzarbeit

Während Lisa in der IT-Abteilung noch die dritte Risikoanalyse für ChatGPT durchführt, hat Uwe im Marketing längst ein halbes Dutzend KI-Tools im Einsatz. Niemand weiß davon. Niemand muss es wissen.
Uwes Argument: “Die Präsentation schreibt sich schließlich nicht von selbst!” Die offizielle Freigabe? Kommt ja eh erst in sechs Monaten. Vielleicht.
Willkommen in der Welt der Shadow AI: wo Innovation auf Verzweiflung trifft und Produktivität wichtiger ist als Prozesse.

Schatten-KI: Mitarbeiter nutzen private KI Tools

🎬Akt 2 Die Dealer: Deine produktivsten Mitarbeiter

Die Ironie? Deine besten Leute sind die größten “Täter”. Der Vertriebsleiter Kai mit 140% Zielerreichung? ChatGPT schreibt seine E-Mails. Die Controllerin Jule, deren Reports plötzlich messerscharf formuliert sind? Gemini analysiert die Zahlen.
Sie sind keine Rebellen. Sie sind Pragmatiker in einem System permanenter Leistungssteigerung.

Fehlende KI Strategie führt zu Schatten-KI

🎬Akt 3 Die Schmuggler: Geschwindigkeit schlägt Compliance

Der Deal ist simpel: Wer auf die offizielle KI-Strategie wartet, verliert. Gegen die Konkurrenz. Gegen die Zeit. Gegen die eigenen Karriereziele. Also wird geschmuggelt: Kundendaten in kostenlose Tools, vertrauliche Dokumente in irgendeinen Chatbot, dessen Datenschutzerklärung niemand gelesen hat.
Die Logik ist bestechend: “Wenn es alle machen und nichts passiert, kann es nicht so schlimm sein.”

KI für notwendige Effizienz

🎬Akt 4 Wer schummelt, gewinnt: Die perverse Incentive-Struktur

Das System belohnt die Falschen. Die Abteilung, die DSGVO-konform arbeitet? Ineffizient. Das Team, das auf sichere Tools besteht? Blockiert Innovation.
Währenddessen räumt die Shadow-AI-Fraktion ab: schnellere Ergebnisse, beeindruckende Präsentationen, mehr Output. Die Beförderung geht an die Produktiven, nicht an die Regelkonformen.

Datenschutzprobleme der Schatten-KI

🎬Akt 5 Die Misere: Alle verlieren

Hier kommt der Plot Twist, den niemand sehen wollte:
Die Datenschutzbehörde meldet sich. Die Kundendaten sind kompromittiert. Das Geschäftsgeheimnis liegt im Trainingsdatensatz einer öffentlichen KI. Der Haftungsfall ist perfekt. Die Versicherung zahlt nicht (grobe Fahrlässigkeit).
Aber der Bösewicht dieser Geschichte ist nicht der Datenschutz. Er war der ignorierte Warner, der die ganze Zeit “Iceberg ahead!” gerufen hat, während alle Vollgas gegeben haben.

The End?

Das Ende steht im Drehbuch: Datenschutzvorfall. Chaos. Alle verlieren.
Aber wie bei jedem Horrorfilm denkt jeder: “Uns passiert das nicht.”
Der Film läuft weiter. Bis jemand “Cut!” ruft.

Hier geht es zum Beitrag auf LinkedIn: Schatten-KI

“Lass uns ein Glossar zu KI-Ethik machen!”
“Das wird deprimierend.”
“Dann machen wir’s humorvoll!”

Bierernst können Christa Goede und ich einfach nicht.

Et voilà:

30 KI-Ethik-Begriffe

die zwischen “wichtig” und “existenziell” rangieren. Begriffe, die jeder kennen sollte – von Bias bis Fairness Metrics.

Verpackt mit einer Prise Humor, denn seien wir ehrlich: Wenn man nicht über Surveillance Capitalism lachen kann, muss man weinen.

Aber warum überhaupt ein KI-Ethik-Glossar?

Weil überall von “Responsible AI” gesprochen wird. Aber kaum jemand erklären kann, was Algorithmic Bias konkret bedeutet.

Weil “Human in the Loop” zum Allheilmittel erklärt wurde. Ohne dass geklärt ist, wie dieser Mensch das überhaupt bewerkstelligen soll.

KI-Ethik ist nicht optional. Es ist auch nicht nur was für Philosophen oder Regulatoren. Es betrifft uns alle, auch wenn wir nur einfache Nutzer sind.