Haben meine Chats Einfluss auf das Training des LLMs?

Und wie lernt das Modell „gut“ von „böse“ zu unterscheiden??

Ein vortrainiertes Sprachmodell wie ChatGPT unterscheidet nicht zwischen Hilfe und Schaden. Es generiert mit derselben statistischen Eleganz Hilfestellungen wie Hasskommentare. Beides sind schließlich nur wahrscheinliche Wortfolgen.

Wie also wird daraus ein Assistent, der sich weigert, Anleitungen für Waffen zu liefern?

Durch RLHF: Reinforcement Learning with Human Feedback und zusätzliche Sicherheitsschichten.

Menschen bewerten Antworten.

Das Modell lernt: Was ist hilfreich? Was ist schädlich?

Die Sache mit der Empathie: LLMs bleiben was sie sind: eine Maschine, die Muster erkennt und Wahrscheinlichkeiten berechnet, aber sie lernen in ihren Trainingsdaten verborgene Muster menschlichen Verhaltens, Sprache und Interaktion. Mit allem, was das bedeutet.

Auch dein Feedback landet im Trainingspool für zukünftige Versionen.

jedes 👍 oder 👎 kann in die Optimierung einfließen.

Du trainierst also mit.

Willst du wissen, wie dein Feedback mitbestimmt, was ChatGPT als „hilfreich“ oder „schädlich“ lernt?

Und wie genau die scheinbare Empathie ins System kommt?

In diesem Beitrag auf LinkedIn findest Du die Antworten: Wie lernt ChatGPT den Unterschied von „gut“ und „böse“?


KI Modelle generieren Code, der funktioniert und beeindruckend präzise Antworten. Sie trainieren sich gegenseitig, korrigieren sich selbst, entwickeln Fähigkeiten, die kein Mensch eingeplant hat.

Und wir?

Alle wollen Agenten. Autonome Systeme, die Tickets lösen, Angebote schreiben, Prozesse orchestrieren. Der Traum von der Maschine, die mitdenkt.

Aber in denselben Unternehmen weiß niemand, wer überhaupt prompten darf. Schulungen? Verschoben. Datenqualität? Später.


Das ist keine KI-Strategie. Das ist Leadership ohne Konzept.


KI-Transformation ist Change Management und Change scheitert hier nicht an der Technologie, sondern an dem, was niemand anfassen will.

0 + 100 ≠ 100.

Man kann das leistungsfähigste Modell der Welt kaufen. Wenn es auf Chaos trifft, produziert es schnelleres Chaos. KI erfindet keine Substanz, sondern entlarvt, wo keine ist.

Nur redet darüber niemand gern. Der Engpass ist nicht die Technologie, er sitzt in Meetings und wartet auf Freigaben, in der Hoffnung, dass irgendwer anders das schon regelt.

Was es braucht, ist kein größeres Modell. Es sind kürzere Schleifen, klarere Leitplanken. Mitarbeitende und Vorgesetzte, die verstehen, was sie da eigentlich bedienen.

Das klingt weniger nach Zukunft als „autonome Agenten“. Es taugt auch nicht gut für Keynotes, aber sehr gut für Leadership.
Es ist der Unterschied zwischen digitaler Transformation und Pilotprojekten, die leise scheitern.

Die Frage ist daher nicht: Wann kommt unser Agent?
Sondern: Was passiert, wenn er sieht, was wir ihm geben?

Genau deshalb sind KI Kompetenz Schulungen keine Nice-to-have-Maßnahme:

Was mir in Unternehmen begegnet sind Mitarbeitende, die KI irgendwie nutzen, weil sie an einer 2-stündigen “KI Kompetenzschulung” teilgenommen haben und danach alleine gelassen werden.


Wenn Du KI Kompetenz aufbauen möchtest hier die nächsten Termine für KI Kompetenz Schulungen der Initiative Neuland:
Grundlagen Generative KI und Prompting (2 Vormittage): 20./21.01.2026 & 18./19.02.2026
Fortgeschrittene Anwendung generative KI (2 Vormittage): 08./09.01. & 26./27.02.2026
Individuelle Termine Online & Inhouse auf Anfrage.
Weitere Infos auf der Webseite

Verzerrte Algorithmen, Datenschutzprobleme und die Gefahr, dass KI die Menschlichkeit verdrängt.

All das sind Risiken bei der Nutzung von KI und sie sollte vor allem menschliche Begegnungen nicht ersetzen.

Aber KI verspricht auch eine Revolution im Gesundheitswesen: Schnellere Diagnosen, präzisere Behandlungen, Entlastung überlasteter Ärzte.

Deshalb hat die National Academy of Medicine jetzt einen umfassenden Verhaltenskodex für KI im Gesundheitswesen vorgelegt:
ein Dokument, das als Richtschnur für alle dienen soll, die mit medizinischer KI arbeiten.

Der Kodex basiert auf sechs Kernverpflichtungen:

|1| Die Menschlichkeit im Fokus behalten
KI soll Menschen nicht ersetzen, sondern unterstützen. Die menschliche Verbindung zwischen Arzt und Patient muss erhalten bleiben. Kein Chatbot kann Empathie ersetzen.

|2| Gerechtigkeit sicherstellen
Alle Menschen müssen von KI profitieren, nicht nur gut situierte Kliniken in Großstädten. Die Technologie darf bestehende Ungleichheiten nicht verstärken.

|3| Betroffene einbeziehen
Patienten, Ärzte, Pflegekräfte und Ethiker müssen von Anfang an mitentscheiden: bei der Entwicklung, Einführung und Überwachung von KI-Systemen.

|4| Das Wohlbefinden des Personals schützen
KI soll Ärzte und Pflegekräfte entlasten, nicht zusätzlich belasten. Sie brauchen Training und müssen in Entscheidungen eingebunden werden.

|5| Leistung kontinuierlich überwachen
KI-Systeme können sich im Laufe der Zeit verschlechtern oder verzerrt werden. Daher braucht es standardisierte Tests und transparente Berichterstattung über ihre Wirksamkeit.

|6| Innovieren und lernen
Der Austausch von Erkenntnissen zwischen Kliniken, Forschung und Industrie ist entscheidend. Fehler müssen offen besprochen werden können, ohne Angst vor Konsequenzen.

Konkrete Maßnahmen
Der Kodex bleibt nicht bei schönen Worten. Er schlägt konkrete Schritte vor:

-> Zertifizierungsstellen, die KI-Systeme unabhängig prüfen
-> Standardisierte Metriken zur Messung von Verzerrungen und Fairness
-> Finanzielle Anreize für Kliniken, die verantwortungsvolle KI einsetzen
-> Technische Unterstützung für kleinere, unterfinanzierte Einrichtungen
-> Nationale Forschungsagenda für KI im Gesundheitswesen
-> Ausbildungsprogramme für medizinisches Personal

Wir stehen erst am Anfang. KI entwickelt sich extrem schnell aber die Spielregeln hinken hinterher.
Der Kodex ist ein Versuch, alle Beteiligten auf gemeinsame verbindliche Prinzipien festzulegen.

KI kann das Gesundheitswesen dramatisch verbessern, aber nur wenn wir jetzt sicherstellen, dass sie allen nützt und niemandem schadet.

Mache diesen Test:


Frag ChatGPT nach Dir selbst. Was kommt zurück?
Mache dazu mal dieses Experiment: Öffne ChatGPT und gib ein:
„Wer ist [Dein Name]?“

Bist Du mit der Antwort in der KI Suche zufrieden?

Ich mache das regelmäßig. Du kannst es auch probieren, nutze dazu auch mal einen erweiterten Prompt:

„Wer ist [Dein Name]? Was macht sie/er? Welche Themen deckt sie/er ab?“

Teste es am Besten in verschiedenen LLMs: ChatGPT, Claude, Gemini und im Googe KI-Modus.

Ich bin recht zufrieden mit meinen Ergebnissen:
Die KI kann ziemlich klar erklären, wie ich mit generativer KI arbeite, welche Schulungen und Vorträge ich anbiete und für wen meine Angebote gedacht sind.

💡Warum?

Für KI Suche sind konsistente Informationen aus verschiedenen Quellen wichtig

Weil die KI aufgrund meiner Aktivitäten aus verschiedenen Quellen konsistente Informationen einsammeln kann:
Website-Texte, LinkedIn-Posts, Veranstaltungs-Ankündigungen, Podcasts.
Überall tauchen wiederkehrende Begriffe, Formulierungen und Beispiele auf.

Das ist einer von vielen wichtigen Punkten bei GEO (Generative Engine Optimization):
Die eigenen Inhalte so zu strukturieren, dass die KI ein stimmiges Bild von Dir rekonstruieren kann.

Was bedeutet das konkret?

Wichtige Komponenten für Optimierung für die KI Suche: GEO


-> Deine Website-Struktur: muss für KI-Crawler verständlich sein
-> Deine Expertise: klar formuliert und kontextualisiert
-> Aktualität zählt mehr denn je
-> Autoritätsaufbau: Es geht nicht um Backlinks, sondern darum, in qualitativen Quellen zitiert zu werden
-> Klare Kernbotschaften: konsistent durch all Deine Inhalte
-> Kontext, Kontext, Kontext: Für wen arbeitest Du, welche Probleme löst Du, wie arbeitest Du konkret?

Wenn eine KI Dich auf dieser Basis treffend beschreiben kann, steigt die Chance, dass sie Dich auch sinnvoll einordnet.

Probiere den obigen Prompt aus: Sind die Ergebnisse so wie du gerne dargestellt werden möchtest?

Wenn Du mehr dazu erfahren möchtest, wie Du Deine Sichtbarkeit in der KI-Suche optimieren kannst: die nächsten Termine für meine GEO Schulung sind: 18.12.2025 (es gibt noch 2 Restplätze) und 16.01.2026.

Den ganzen Beitrag findest Du hier auf LinekdIn: Sichtbarkeit in KI Suche

„KI versteht mich doch gar nicht – oder?“
Genau. Tut sie nicht. Oder doch?

Wie funktioniert Tokenisierung?

Wenn du mit ChatGPT chattest, liest da niemand deine Wörter. Stattdessen werden sie zerhackt, in Tokens zerlegt und in Zahlen übersetzt.

„Künstliche Intelligenz“ wird zu [„Künst“, „liche“, „ĠIntel“, „ligenz“], oder auch anders, je nachdem.

Klingt nach Kleinkram? Ist es nicht.

Tokens sind der Schlüssel

Denn Tokens sind der Schlüssel dazu, wie KI überhaupt mit Sprache arbeiten kann. Ohne sie: kein ChatGPT. Mit ihnen: ein Modell, das Milliarden Texte „gelesen“ hat ohne ein Wort davon zu verstehen.

KI lernt nicht Bedeutung, sondern optimiert Wahrscheinlichkeiten

Was dann passiert? Statistik. Das Modell lernt nicht Bedeutung, sondern optimiert Wahrscheinlichkeiten. Nach „Die Katze sitzt auf der …“ kommt halt öfter „Decke“ als „Gabel“. Ganz einfach.

Und das kann die KI so gut, dass es wie Verständnis wirkt. Wir schreiben ihr Gefühle zu, diskutieren mit ihr, vermenschlichen sie vielleicht sogar ein wenig und vergessen dabei fast, dass dahinter nur Berechnungen stehen.

In diesem Carousel zeige ich dir, wie aus Buchstaben Datenwissen wird und warum du das wissen solltest, wenn du mit KI arbeitest.

Hier geht es zum Beitrag auf LinkedIn, in dem Du in meinem Carusel (PDF zum download) erfährst: was Tokens sind und wie Tokenisierung funktioniert

„Ich bin für dich da“, schreibt die KI.
Und für einen Herzschlag lang vergessen wir: Da ist niemand.
Dieser eine Herzschlag verändert, wie wir mit ihr umgehen.

Wenn ChatGPT schreibt, es „verstehe“ unsere Frage oder „freue“ sich zu helfen, passiert etwas Fatales: Unser Gehirn springt an und jahrtausendealte neuronale Schaltkreise interpretieren statistische Muster als menschlichen Geist. Wir sehen Bewusstsein, wo keines ist.

Was passiert bei der Anthropomorphisierung  von KI?


Anthropomorphismus hat uns als Spezies gerettet. Besser, einmal zu viel einen Feind hinter dem Rascheln im Gebüsch zu vermuten, als einmal zu wenig. Doch was im Pleistozän überlebensnotwendig war, wird bei KI zur kognitiven Falle. Die Höflichkeitsfloskel „gerne“ einer Maschine aktiviert dieselben sozialen Verarbeitungsmuster wie das Lächeln eines Kollegen. Eine Illusion mit Konsequenzen.

Warum vermenschlichen wir die KI?

Fliegen ist nicht Brüten

Ja, funktionale Analogien zwischen biologischen und künstlichen Systemen existieren. Aber funktionale Äquivalenz ist keine Wesensgleichheit. Ein Flugzeug fliegt wie ein Vogel, wird aber niemals Eier legen. Wenn ein Sprachmodell „Der Himmel ist blau“ generiert, hat es keine Verbindung zu eigenen Erlebnissen eines blauen Himmels. Es hat lediglich gelernt, dass nach „Der Himmel ist“ mit hoher Wahrscheinlichkeit „blau“ folgt. Statistik, keine Erkenntnis.

Die Selbstüberschätzung der Maschine

Wenn ChatGPT erklärt „Ich bin mir sicher“, interpretieren wir das als Ausdruck von Überzeugung. Es ist aber die Ausgabe eines Wahrscheinlichkeitswerts. KI-Systeme produzieren hochkonfident Unsinn, weil ihnen die metakognitive Fähigkeit fehlt, ihre eigenen Grenzen zu erkennen. Ein Mensch spürt (hoffentlich, meistens), wenn er etwas nicht versteht. Ein Sprachmodell generiert weiter, egal ob fundiert oder halluziniert.

Bewusstsein?

Diese anthropomorphe Wahrnehmung führt zu übermäßigem Vertrauen. Sie verzerrt Entscheidungen und lässt uns Verantwortung an Systeme delegieren, die keine tragen können.

KI verarbeitet Sprache wie ein Mensch, aber sie wird niemals einen Moment der Stille als bedeutungsvoll erleben. Sie wird nie den Verlust einer geliebten Person durchleben. Bewusstsein beim Menschen ist leiblich, qualitativ, subjektiv. KI-„Bewusstsein“ bleibt ein körperloses, funktionales Phänomen ohne subjektive Innenperspektive.

Der Moment der Selbsttäuschung

Wir entschuldigen uns bei ChatGPT und sagen „Bitte” und „Danke”. Und wir belügen uns selbst, wenn wir behaupten, das sei „nur Höflichkeit“.

Diese Illusion zu durchschauen ist der erste Schritt hin zu einem reflektierten Umgang mit KI. Nicht als empathisches Gegenüber. Nicht als Ersatz für menschliche Interaktion. Sondern als das, was sie ist: Ein mächtiges Werkzeug, das menschliches Verhalten simuliert, ohne Teil der menschlichen Erfahrungswelt zu sein.

Funktionale Analogien helfen uns, KI-Systeme zu verstehen. Sie dürfen uns aber nicht vergessen lassen: Ein Sonnenaufgang berührt uns. Eine Maschine berechnet Wellenlängen. Das ist der Unterschied.

Save the date:
Wer glaubt, KI sei neutral, sollte bei diesem DigiTalk dabei sein.

Am 25. November 2025 um 14:00 Uhr bin ich Gast bei der Fraport AG Zukunftswerkstatt und freue mich sehr darauf, mit Arthur Michael Seidel, dem Gastgeber der DigiTalks-Serie, über ein Thema zu sprechen, das einen großen Einfluss hat auf die Qualität aller KI-Outputs:

KI-Ethik in der Praxis – Responsible AI


Denn zwischen all der Faszination und Effizienz, die uns KI bringt, lauern auch viele hartnäckige Mythen und Fallstricke:

-> Die Illusion, dass Maschinen neutral sind
-> Der Glaube an objektive Antworten
-> Die Versuchung, Verantwortung einfach abzugeben

Genau hier beginnt Ethik in der KI Anwendung.

Verantwortungsvolles Prompten bedeutet nämlich viel mehr als nur kluge Fragen zu stellen. Jeder Prompt ist eine Entscheidung, eine Rahmensetzung, die steuert, welche Perspektiven sichtbar werden und welche im Verborgenen bleiben.

Lasst uns gemeinsam darüber sprechen, wie wir KI bewusst und verantwortungsvoll nutzen können.

Es gibt natürlich auch jede Menge praktischer Tipps und Beispiel-Prompts von mir zum direkten Umsetzen.

📍 Ort: MS Teams – Fraport Zukunftswerkstatt
🔗 Anmeldung: Link findet ihr in den Kommentaren
Ich freue mich auf euch! 💙

Hier geht´s zur Anmeldung über LinkedIn: KI Ethik in der Praxis Anmeldung zum DigiTalk

SHADOW AI: Der Unternehmensthriller
mit dem schlechtesten Ende aller Zeiten in 5 Akten

Erscheinungsjahr: 2025 (und täglich in deinem Unternehmen)
Genre: Corporate Thriller, Tragödie
Regie: Deine IT-Abteilung (unfreiwillig)
Hauptrollen: Deine produktivsten Mitarbeiter
Nebendarsteller: ChatGPT, Gemini, Midjourney, diverse KI-Tools
Besetzung: Jedes zweite Unternehmen weltweit
Laufzeit: Bis zum Datenschutzvorfall
FSK: Freigegeben ab Geschäftsführung
Warnung: Enthält Szenen von grober Fahrlässigkeit und organisiertem Chaos

Wie entsteht Schatten-KI?

🎬Akt 1 Die geheime KI-Schwarzarbeit

Während Lisa in der IT-Abteilung noch die dritte Risikoanalyse für ChatGPT durchführt, hat Uwe im Marketing längst ein halbes Dutzend KI-Tools im Einsatz. Niemand weiß davon. Niemand muss es wissen.
Uwes Argument: „Die Präsentation schreibt sich schließlich nicht von selbst!“ Die offizielle Freigabe? Kommt ja eh erst in sechs Monaten. Vielleicht.
Willkommen in der Welt der Shadow AI: wo Innovation auf Verzweiflung trifft und Produktivität wichtiger ist als Prozesse.

Schatten-KI: Mitarbeiter nutzen private KI Tools

🎬Akt 2 Die Dealer: Deine produktivsten Mitarbeiter

Die Ironie? Deine besten Leute sind die größten „Täter“. Der Vertriebsleiter Kai mit 140% Zielerreichung? ChatGPT schreibt seine E-Mails. Die Controllerin Jule, deren Reports plötzlich messerscharf formuliert sind? Gemini analysiert die Zahlen.
Sie sind keine Rebellen. Sie sind Pragmatiker in einem System permanenter Leistungssteigerung.

Fehlende KI Strategie führt zu Schatten-KI

🎬Akt 3 Die Schmuggler: Geschwindigkeit schlägt Compliance

Der Deal ist simpel: Wer auf die offizielle KI-Strategie wartet, verliert. Gegen die Konkurrenz. Gegen die Zeit. Gegen die eigenen Karriereziele. Also wird geschmuggelt: Kundendaten in kostenlose Tools, vertrauliche Dokumente in irgendeinen Chatbot, dessen Datenschutzerklärung niemand gelesen hat.
Die Logik ist bestechend: „Wenn es alle machen und nichts passiert, kann es nicht so schlimm sein.“

KI für notwendige Effizienz

🎬Akt 4 Wer schummelt, gewinnt: Die perverse Incentive-Struktur

Das System belohnt die Falschen. Die Abteilung, die DSGVO-konform arbeitet? Ineffizient. Das Team, das auf sichere Tools besteht? Blockiert Innovation.
Währenddessen räumt die Shadow-AI-Fraktion ab: schnellere Ergebnisse, beeindruckende Präsentationen, mehr Output. Die Beförderung geht an die Produktiven, nicht an die Regelkonformen.

Datenschutzprobleme der Schatten-KI

🎬Akt 5 Die Misere: Alle verlieren

Hier kommt der Plot Twist, den niemand sehen wollte:
Die Datenschutzbehörde meldet sich. Die Kundendaten sind kompromittiert. Das Geschäftsgeheimnis liegt im Trainingsdatensatz einer öffentlichen KI. Der Haftungsfall ist perfekt. Die Versicherung zahlt nicht (grobe Fahrlässigkeit).
Aber der Bösewicht dieser Geschichte ist nicht der Datenschutz. Er war der ignorierte Warner, der die ganze Zeit „Iceberg ahead!“ gerufen hat, während alle Vollgas gegeben haben.

The End?

Das Ende steht im Drehbuch: Datenschutzvorfall. Chaos. Alle verlieren.
Aber wie bei jedem Horrorfilm denkt jeder: „Uns passiert das nicht.“
Der Film läuft weiter. Bis jemand „Cut!“ ruft.

Hier geht es zum Beitrag auf LinkedIn: Schatten-KI

„KI-Kompetenz?“ Viele KI-Trainings trainieren das Falsche.


Was du wirklich brauchst:

Viele denken bei KI-Kompetenz an ChatGPT nutzen und Prompts schreiben.
Aber das ist nur ein kleiner Teil der Kompetenzen, die du brauchst.



Tool-Bedienung ≠ KI Kompetenz



Wenn du dich jetzt fragst

“Was macht KI Kompetenz aus?”

und

“Was ist KI Kompetenz?”



→ Menschen mit hoher KI Kompetenz nutzen KI als Sparringspartner, um Gedanken zu entwickeln und Argumente zu strukturieren. Nicht als Ersatz fürs Denken. Sie treffen bessere Entscheidungen und bewerten KI-Outputs kritisch.

Und es geht auch darum zu verstehen, WIE und WOBEI die KI am besten hilft.

💡Die sechs Dimensionen produktiver KI-Kompetenz
Von technischem Grundverständnis über kritische Reflexion bis hin zu persönlicher Haltung: KI-Kompetenz bedeutet mehr als sie nur zu nutzen.

Swipe durch das Carousel und frag dich: „Bin ich wirklich kompetent im Umgang mit KI oder nur routiniert? Wo sind Lücken, die ich schließen muss?“

Denn KI-Kompetenz ist erlernbar. Nicht nur für Techies, sondern für jeden, der bereit ist, sich damit auseinanderzusetzen.

Wie lernst du KI? Durch Erfahrung oder gezielte Weiterbildung?

Hier geht es zum Beitrag auf LinkedIn mit ausführlichem Carousel zu KI Kompetenz: Was macht KI Kompetenz aus?

„Lass uns ein Glossar zu KI-Ethik machen!“
„Das wird deprimierend.“
„Dann machen wir’s humorvoll!“

Bierernst können Christa Goede und ich einfach nicht.

Et voilà:

30 KI-Ethik-Begriffe

die zwischen „wichtig“ und „existenziell“ rangieren. Begriffe, die jeder kennen sollte – von Bias bis Fairness Metrics.

Verpackt mit einer Prise Humor, denn seien wir ehrlich: Wenn man nicht über Surveillance Capitalism lachen kann, muss man weinen.

Aber warum überhaupt ein KI-Ethik-Glossar?

Weil überall von „Responsible AI“ gesprochen wird. Aber kaum jemand erklären kann, was Algorithmic Bias konkret bedeutet.

Weil „Human in the Loop“ zum Allheilmittel erklärt wurde. Ohne dass geklärt ist, wie dieser Mensch das überhaupt bewerkstelligen soll.

KI-Ethik ist nicht optional. Es ist auch nicht nur was für Philosophen oder Regulatoren. Es betrifft uns alle, auch wenn wir nur einfache Nutzer sind.