Ermittlungen im Zusammenhang mit LinkedIn Posts zum Thema generative KI:

Die selbsternannte KI Polizei patrouilliert wieder mit feinem Sensorium für generische Phrasen und verdächtig klingenden Satzkonstruktionen, scannt Inhalte nach verdächtigen Formulierungen und …

… schlägt zu. Öffentlich. Mit schwacher Rhetorik und viel moralischer Überlegenheit.

Die womöglich unnatürlich anmutende Dichte an Gedankenstrichen ist schon zu bekannt, daher darf man jetzt auch keine Doppelpunkte mehr verwenden und auch falsche Anführungszeichen und das Unterlassen von korrektem Gendern gerät unter Verdacht.

📢 Was genau bringt diese kollektive Entrüstung?

NICHTS.

Die meisten von uns nutzen generative KI.

Die einen, um das Denken zu ersetzen, die anderen, um es zu ergänzen und zu erweitern. Beide nutzen die gleichen KI Modelle mit den gleichen Unzulänglichkeiten in Bezug auf Satzzeichen u.ä..

Wann lernen wir wieder, Texte nach Inhalt und Mehrwert zu beurteilen anstatt nach Formalitäten? Je besser LLMs werden umso weniger können wir Qualität nach solchen formalen Anzeichen beurteilen (was ohnehin keinen Sinn macht).

Natürlich ist ein Text mit einem überlangen Gedankenstrich ein klares Indiz dafür dass Claude mit im Spiel war. Aber was ist daran falsch? Wir sind angekommen in einer Zeit wo das Nutzen von KI definitiv keine Straftat ist sondern Standard.

Qualitätsprüfung von KI generierten Texten

Wenn dagegen Beiträge, die offensichtlich keinem menschlichen Denken entspringen, noch von menschlichem Intellekt überarbeitet wurden einfach ignoriert würden, würde auch der Algorithmus die Konsequenzen ziehen und solche „Content Creators“ weniger ausspielen.

Ich wünsche mir mehr Inhalte, die mitdenken statt performen, die irritieren, ohne zu provozieren und die sich nicht durch Bindestriche verdächtig, sondern durch ihren Gehalt bemerkbar machen.

Beiträge, die dem nährstoffarmen generischen Brei etwas entgegensetzen, damit mein Feed wieder ein Ort der Anregung wird und nicht nur ein All-you-can-eat-Buffet synthetischer Reize.

Wo sind die Texte, die nicht nur gefallen möchten, sondern Mehrwert bieten und etwas auslösen?

Hier geht es zum Beitrag auf LinkedIn: Erkennung von KI generierten Texten

Ich hatte mal eine Vorgesetzte, die für jede meiner Einschätzungen eine Quelle gefordert hat. Ich konnte sie selten liefern, nicht weil mir das Wissen fehlte, sondern weil es sich nicht auf eine konkrete Quelle zurückführen ließ. Es hat sich über Jahre Berufserfahrung aufgebaut, aus Beobachtungen, Gesprächen und Kontexten.

Was bei Nutzung generativer KI Voraussetzung ist, kann bei menschlichem Wissen ein Hindernis sein: Der Quellennachweis. Was meine Vorgesetzte wollte, ist genau die Art von Wissen, das durch KI abrufbar ist. Aus Erfahrung aufgebautes Wissen dagegen lässt sich nicht prompten und oft nicht auf eine konkrete Quelle zurückführen.

Diese Unterscheidung steht im Zentrum einer These, die viel diskutiert wird:

Wissen wird durch KI obsolet.

Sie hat einen wahren Kern aber auch einen entscheidenden Denkfehler. Der wahre Kern:

Faktenwissen ist durch KI-Sprachmodelle weitgehend abrufbar.

LLMs leisten noch weit mehr als Faktenabruf. Durch Mustererkennung über riesige Textmengen erschließen sie nicht-offensichtliche Verbindungen zwischen Konzepten domänenübergreifend und in einem Umfang, der einem einzelnen menschlichen Experten schwerlich zugänglich ist.

Was LLMs dabei nicht leisten: die Unterscheidung zwischen einer plausiblen und einer wahren Synthese. Echte Wissensgenerierung erfordert empirische Überprüfung: Hypothesenbildung, Falsifizierung, experimentelle Validierung. Ein LLM kann den Weg dorthin beschreiben, aber nicht begehen.

Die entscheidende Unterscheidung liegt also nicht darin, ob Wissen obsolet wird, sondern welches Wissen.

Hier kommt der Fehlschluss: KI-Outputs beurteilen zu können setzt eigenes Wissen voraus. Einen falsch zitierten Standardfakt erkenne ich noch. Eine plausibel klingende Fehlverknüpfung über drei Domänen hinweg erfordert deutlich mehr eigenes Fundament, um sie einzuordnen. Die Fähigkeit zu nicht-offensichtlicher Synthese macht das Bewertungsproblem nicht kleiner, sondern größer.

Die Kompetenz, KI-generiertes Wissen zu bewerten, setzt daher genau das voraus, was KI angeblich ersetzt. Kein Basiswissen bedeutet kein Urteilsvermögen. Und kein Urteilsvermögen bedeutet unkritische Abhängigkeit.

Das ist kein Plädoyer für Wissen um seiner selbst willen. Es ist ein Argument gegen eine Vereinfachung, die zu einem konkreten Risiko wird.

Was sich verändert, ist die Architektur des Wissens, das Macht verleiht.

Faktenwissen war nie das Entscheidende. Was bleibt und an Bedeutung gewinnt, ist das, was sich nicht abrufen lässt. Der Philosoph Michael Polanyi hat dafür den Begriff des tacit knowledge geprägt: Wissen, das wir haben, ohne es vollständig explizieren zu können – das Gespür, das Urteil, das durch Praxis und Auseinandersetzung entsteht. Dieses Wissen lässt sich nicht prompten.

Wissen ist weiterhin Macht. Nicht als Faktenspeicher, sondern als Urteilskompetenz. Wer das versteht, nutzt KI anders: nicht als Wissensersatz, sondern als Werkzeug, das Urteilskompetenz voraussetzt – und ohne sie zum Risiko wird.

Hier geht es zum Beitrag auf LinkedIn: Wir Wissen durch KI obsolet?

Generative KI macht es möglich, zu jedem Thema einen professionell klingenden Fachartikel zu produzieren. Das verändert aber nicht, wer die Verantwortung für den Inhalt trägt.

Wer einen Fachartikel veröffentlicht, unterschreibt damit stillschweigend einen Vertrag mit seinen Lesern: Ich stehe für diesen Inhalt. Ob dabei KI genutzt wurde oder nicht macht keinen Unterschied, die Verantwortung bleibt beim Verfasser.

Das ist keine rein moralische Frage, sondern eine epistemische. Fachwissen bedeutet nicht nur, dass jemand Texte zu einem Thema produzieren kann. Es bedeutet, dass er beurteilen kann, ob das Ergebnis der KI nur plausibel ist oder einer fachlichen Überprüfung standhält. Und ob es einen Mehrwert bietet, denn das sollte ein fachlicher Beitrag leisten.

Hier entsteht ein Problem, das in der KI-Nutzung oft unterschätzt wird.

-> Die Delegation der Kompetenz

„Schreibe einen Fachartikel über Lieferkettenrisiken im Mittelstand.” Der Prompt ist gesetzt, das Ergebnis kommt nach Sekunden, klingt professionell, ist gut strukturiert, die KI zitiert sinnvoll wirkende Zusammenhänge. Was fehlt: eine kritische Instanz, die das Ergebnis tatsächlich prüft.

Das setzt Fachkompetenz voraus. Wer sie nicht besitzt, kann nicht beurteilen, ob ein Sprachmodell halluziniert, ob es veraltete Daten verwendet, ob es vereinfacht wo Differenzierung nötig wäre, ob es durch Trainingsverzerrungen systematisch in eine Richtung zieht (Bias).

Die Delegation des Schreibens ist kein Problem. Die Delegation des Urteilsvermögens schon.

-> Was Sprachmodelle nicht leisten

Ein LLM optimiert auf sprachliche Plausibilität. Ein Satz, der gut klingt und grammatikalisch vollständig ist, hat gute Chancen, im Output zu erscheinen, unabhängig davon, ob er richtig ist oder Mehrwert liefert. Denn KI-generierte Inhalte können plausibel klingen und trotzdem falsch liegen. Gerade bei komplexen Fachthemen, wo Quellen dünn, Zusammenhänge mehrdeutig oder Datensätze unvollständig sind, ist das Fehlerrisiko erhöht.

Wer da nicht selbst bewerten kann, merkt es nicht.

-> Expertise als Voraussetzung, nicht als Ergebnis

Die Logik „Ich nutze KI, um wie ein Experte zu wirken” dreht die Kausalität um. Expertise entsteht nicht durch die Nutzung eines Werkzeugs wie einem LLM, das gut klingende Texte produziert. Sie entsteht durch Auseinandersetzung, Fehler, Korrektur, vertiefte Beschäftigung mit einem Thema.

KI kann Expertinnen und Experten gut unterstützen: beim Strukturieren, beim Formulieren, beim Zusammenführen von Material. Was sie nicht kann: das Urteilsvermögen ersetzen, das nötig ist, um den Output zu validieren.

Wer diesen Unterschied nicht kennt oder ignoriert, trägt trotzdem die Verantwortung für das, was veröffentlicht wird. Gegenüber Menschen, die auf der Suche nach verlässlichen Einschätzungen sind.

Das ist keine Frage der KI-Nutzung, sondern der Integrität im Umgang mit Öffentlichkeit.

KI kann jeden zum Autor machen. Zum Experten nicht.

Hier geht es zum Beitrag auf LinkedIn: KI ist kein Fachexperte

„Ich hab ChatGPT gekündigt und bin komplett zu Claude gewechselt.” In den letzten Tagen habe ich das unzählige Male hier gelesen.

Ich verstehe den Hype.

Claude macht vieles wirklich besser

und die neuen Automatisierungsfunktionen (quasi ein Umzugsservice von Claude) machen den Umstieg gerade besonders verlockend: [claude.com/import-memory](http://claude.com/import-memory)

Trotzdem rate ich: Nicht blind kündigen.

Denn Claude ist kein 1:1-Ersatz für ChatGPT. Wer einfach wechselt, merkt schnell, was fehlt: z.B. Bildgenerierung, unlimitierte Nutzung. Und auch Prompts, die bei ChatGPT gut funktioniert haben, reagieren bei Claude anders, weil das Modell anders „denkt”.

Das ist keine Kritik an Claude. Es ist ein anderes Tool mit anderen Stärken.

Auch das Ethik-Argument ist gerade sehr laut und ich kann dem durchaus einiges abgewinnen.

Anthropic hat bekanntlich einen Pentagon-Vertrag abgelehnt, weil das US-Verteidigungsministerium auf uneingeschränktem Zugang bestand. Die US-Regierung stufte Anthropic daraufhin als „supply chain risk” ein. OpenAI schloss den Deal wenige Stunden später.

Zudem legt Anthropic die ethischen Grundsätze, nach denen Claude trainiert wird, offen: in der sogenannten Claude Constitution, einem frei zugänglichen Dokument, das Werte, Prioritäten und Grenzen des Modells beschreibt: https://www.anthropic.com/constitution.

Diesen Grad an Transparenz gibt es bei OpenAI so nicht.

Und trotzdem: Anthropic nicht verklären. Auch dieses Unternehmen verfolgt monetäre Ziele und ist kein gemeinnütziger Akteur. 😇

Mein Empfehlung: Beide parallel testen bevor du “kopflos” kündigst.

Du gewinnst einiges, aber was du verlierst, wird oft kaum erwähnt.

Das Carousel zeigt, worauf du achten solltest – bevor du kündigst.

Hier geht es zum Beitrag auf LinkedIn: Wechsel von ChatGPT zu Claude

„Erkläre mir, warum ich recht habe.”

Das ist kein Prompt.

Das ist die Grundeinstellung, mit der viele Menschen generative KI nutzen. Sie merken es nur nicht.

Confirmation Bias ist die psychologische Neigung, nur wahrzunehmen, was die eigene Weltsicht bestätigt. Das ist nichts Neues, alle haben ihre eigene Wahrheit.

Personalisierung = Confirmation Bias als Geschäftsmodell

Was als menschlicher Denkfehler begann, wurde mit Suchmaschinen zur Produktstrategie: Algorithmen liefern Ergebnisse passend zur Filterblase und nennen es Personalisierung. Und das wiederum passt perfekt zur Theorie der Wissensresistenz: der Neigung zu glauben, was ins eigene Weltbild passt, statt zu glauben, wofür es gute Gründe gibt.

Generative KI macht aus diesem Problem eine Kunstform.

LLMs halluzinieren nicht nur einzelne Fakten, sie halluzinieren ganze Wirklichkeiten. Aber sie tun es auf eine Weise, die gefährlicher ist als jeder Suchalgorithmus zuvor: Sie sprechen in ganzen Sätzen, argumentieren und klingen sehr überzeugend. Sie liefern die fertige Begründung gleich mit.

Der Mechanismus ist simpel: Wenn ich ChatGPT (oder ein anderes LLM) frage „Belege mir, dass meine These X stimmt”, dann liefern sie genau das. Nicht aus Böswilligkeit. Sondern weil sie auf Kohärenz trainiert sind, nicht auf Wahrheit. Sie generieren plausible Antworten auf Basis statistischer Muster.

Wir prompten uns damit unseren Bias selbst.

Formulierungen wie „Erkläre mir, warum…”, „Bestätige, dass…” oder „Zeige mir Beispiele dafür, dass…” sind dafür prädestiniert. Die KI wird zur perfekten Bestätigungsmaschine. Sie liefert nicht nur Links zu Quellen, die unsere Überzeugung stützen, sie formuliert die Argumentation gleich mit. Flüssig. Scheinbar objektiv. Ohne Widerspruch.

Die Frage ist jetzt: Welche Wirklichkeit konstruiert die KI für mich, basierend auf dem, was ich bereits glaube?

Das Problem liegt nämlich nicht in der Technologie. Es liegt in unserem Umgang mit ihr. In der Illusion, dass eine gut formulierte Antwort auch eine wahre Antwort ist.

Was dagegen hilft?

Prompts, die Widerstand einbauen und bewusst gegen die eigene Überzeugung arbeiten:

„Welche Argumente sprechen gegen meine These?”

„Wo sind die Schwachstellen in dieser Annahme?”

„Welche Perspektive übersehe ich hier systematisch?”

Die eigene Brille abzusetzen bedeutet nicht, keine Haltung zu haben. Sondern zu erkennen, dass wir eine tragen. Und dass KI sie verstärkt – es sei denn, wir fragen anders.

Der Bestätigungsfehler ist menschlich. Ihn zur Standardeinstellung unserer digitalen Werkzeuge zu machen, ist eine Entscheidung. Denn was bleibt von Erkenntnis übrig, wenn jede Frage bereits die gewünschte Antwort enthält?

Die Lösung liegt darin, Prompts zu formulieren, die unbequem sind: nicht für die KI, sondern für uns selbst.

Hier geht es zum Beitrag auf LinkedIn: Wir prompten uns unseren Bias selbst

Hat dich OpenAI auch schon gefragt, ob du deine Kontakte in ChatGPT importieren möchtest?
ChatGPT wird zum Social Network.

Hier wird kein KI-Chatbot mehr entwickelt. OpenAI baut eine Plattform. Mit Social Graph, Profilbildern, Follower-Funktionen und algorithmischem Feed.

800 Millionen wöchentliche Nutzer, Gruppenchats und eine TikTok-Klon-App. Und seit ein paar Tagen: Kontakt-Sync, bei dem deine Freunde deine Telefonnummer an OpenAI weitergeben können, ohne dass du gefragt wirst.

Sam Altman hat wohl das Playbook von Facebook 2008 genommen und mit KI-Steroiden angereichert:

→ Gruppenchats, in denen ChatGPT entscheidet, wann es sich einmischt und wann es schweigt.

→ Sora, eine Social App, in der du Deepfakes deiner Freunde erstellen kannst (mit deren Einwilligung, versteht sich).

→ Kontaktimport in ChatGPT, der nach dem Prinzip funktioniert, das die EFF seit Jahren als Shadow Profiling kritisiert.

Die Strategie scheint klar: Wenn deine Freunde in ChatGPT sind, gehst du nicht mehr zu Claude oder Gemini. Der Lock-in entsteht nicht durch das bessere Modell. Er entsteht durch den sozialen Graphen.

Meine private Telefonnummer landet in einer Umgebung, in der ich null Kontrolle darüber habe, was andere damit anstellen. Shadow Profiles plus eine Plattform, auf der Millionen Menschen täglich unkontrolliert und unbedacht mit KI-Automatisierung spielen, weil die Agenten so beeindruckend sind. Das ist keine theoretische Sorge, das ist eine offene Flanke.

Was Anthropic dagegen macht, ist das genaue Gegenteil.

Während OpenAI in Richtung Consumer-Social-Plattform driftet, hat Anthropic diese Woche Cowork auf Windows gebracht: einen Desktop-Agenten, der auf deinem Rechner arbeitet, deine Dateien liest, Aufgaben parallel abarbeitet und über Plugins mit Slack, Notion und CRM-Systemen interagiert, das sich direkt in Excel u.v.m. integrieren lässt.

Die Frage ist aber offenbar nicht mehr: Welches KI-Modell ist besser?
Die Frage ist: für welche Zielsetzung werden diese Unternehmen optimieren?

OpenAI optimiert für Engagement, Reichweite und Nutzerbindung. Das Geschäftsmodell hinter Gruppenchats und Kontakt-Sync ist Wachstum um jeden Preis. 800 Millionen Nutzer müssen irgendwann monetarisiert werden.
Anthropic optimiert für Produktivität. Für Tasks, die abgearbeitet werden und für Outputs, die du für dein Business nutzt.

Zwei KI-Unternehmen. Zwei verschiedene Zukunftsvisionen.
Die eine Vision behandelt dich als User, der Engagement liefert. Die andere behandelt dich als Profi, der Ergebnisse braucht.

Wollt ihr ein KI gestütztes Social Network oder eine KI, die arbeitet?
Die nächste Frage, die euch ChatGPT stellt, ist vielleicht nicht mehr “Wie kann ich helfen?” sondern “Wen kennst du noch?”

————–
Hinweis: Ich nutze sowohl ChatGPT als auch Claude beruflich und kenne die Stärken beider Systeme. Aber die strategische Richtung, die sich hier abzeichnet, verdient eine offene Debatte.

„Macht KI uns bald überflüssig?“
Das ist die falsche Frage.
Die viel wichtigere lautet: Sind wir bereit, aufzuhören, wie Maschinen zu arbeiten?

Jahrelang haben wir genau das versucht. Wir haben uns selbst optimiert, unsere Kalender getaktet wie Prozessoren und unsere Kommunikation auf Transaktionsgeschwindigkeit getrimmt.

Dieser Wettlauf ist vorbei. Die Maschine hat gewonnen.
Und das ist die beste Nachricht des Jahrzehnts.


Denn dieser “Verlust” der maschinellen Aufgaben an die KI löst eine wunderbare Inversion der Wertschöpfung aus:


Mehr Menschlichkeit dank generativer KI

1. Die Rückeroberung der Resonanz


Wenn KI uns Zeit schenkt, dann ist das nicht einfach nur “Freizeit” im Sinne von Leerlauf. Es ist die Rückgewinnung kognitiver und emotionaler Bandbreite. Lange wurde unsere Menschlichkeit von administrativer Last und repetitivem Abarbeiten verschüttet. Klug angewandte KI übernimmt nun das Rauschen, damit wir uns wieder dem Signal widmen können. Sie gibt uns den Raum zurück, um echte Gespräche zu führen. Wir bekommen die Chance, uns wieder den Nuancen zu widmen: den subtilen Zwischentönen in Verhandlungen oder Mitarbeitergesprächen, die keine KI decodieren kann.


2. KI als Spiegel unserer Führungskultur


Es ist ein Irrglaube, dass KI uns weniger Verantwortung abverlangt. Das Gegenteil ist der Fall. Wer KI effektiv steuern will, braucht exzellente Führungskompetenz. Eine unklare Anweisung führt zu einem halluzinierenden Ergebnis. KI hält uns den Spiegel vor: Wer keine Empathie, keine klare Vision und kein kontextuelles Verständnis besitzt, wird an der KI scheitern, so wie er an der Führung von Menschen scheitert. “Prompting” ist im Kern nichts anderes als Delegieren mit höchster Präzision. Menschliche Weisheit wird damit zur härtesten Währung am Arbeitsmarkt.


3. Menschliche Verbindung als Premium-Produkt


In einer Welt, in der synthetische Inhalte unendlich verfügbar sind, wird das Authentische zum Luxusgut. Wissen ist überall abrufbar, aber Vertrauen lässt sich nicht automatisieren. Die wirklichen Durchbrüche werden künftig in Ökosystemen und Allianzen entstehen, in denen die chemische Reaktion zwischen Menschen den Unterschied macht.

Wir stehen an einer Schwelle, an der Technologie nicht mehr dazu dient, uns von unserer Natur zu entfernen, sondern sie zur Bedingung für Erfolg macht.

Die Zukunft gehört für mich nicht den schnellsten Rechnern. Sie gehört den empathischsten, vernetztesten und menschlichsten Persönlichkeiten.

Hier geht es zum Beitrag auf LinkedIn: Macht KI uns überflüssig? Mehr Menschlichkeit dank generativer KI


KI Modelle generieren Code, der funktioniert und beeindruckend präzise Antworten. Sie trainieren sich gegenseitig, korrigieren sich selbst, entwickeln Fähigkeiten, die kein Mensch eingeplant hat.

Und wir?

Alle wollen Agenten. Autonome Systeme, die Tickets lösen, Angebote schreiben, Prozesse orchestrieren. Der Traum von der Maschine, die mitdenkt.

Aber in denselben Unternehmen weiß niemand, wer überhaupt prompten darf. Schulungen? Verschoben. Datenqualität? Später.


Das ist keine KI-Strategie. Das ist Leadership ohne Konzept.


KI-Transformation ist Change Management und Change scheitert hier nicht an der Technologie, sondern an dem, was niemand anfassen will.

0 + 100 ≠ 100.

Man kann das leistungsfähigste Modell der Welt kaufen. Wenn es auf Chaos trifft, produziert es schnelleres Chaos. KI erfindet keine Substanz, sondern entlarvt, wo keine ist.

Nur redet darüber niemand gern. Der Engpass ist nicht die Technologie, er sitzt in Meetings und wartet auf Freigaben, in der Hoffnung, dass irgendwer anders das schon regelt.

Was es braucht, ist kein größeres Modell. Es sind kürzere Schleifen, klarere Leitplanken. Mitarbeitende und Vorgesetzte, die verstehen, was sie da eigentlich bedienen.

Das klingt weniger nach Zukunft als „autonome Agenten”. Es taugt auch nicht gut für Keynotes, aber sehr gut für Leadership.
Es ist der Unterschied zwischen digitaler Transformation und Pilotprojekten, die leise scheitern.

Die Frage ist daher nicht: Wann kommt unser Agent?
Sondern: Was passiert, wenn er sieht, was wir ihm geben?

Genau deshalb sind KI Kompetenz Schulungen keine Nice-to-have-Maßnahme:

Was mir in Unternehmen begegnet sind Mitarbeitende, die KI irgendwie nutzen, weil sie an einer 2-stündigen “KI Kompetenzschulung” teilgenommen haben und danach alleine gelassen werden.


Wenn Du KI Kompetenz aufbauen möchtest hier die nächsten Termine für KI Kompetenz Schulungen der Initiative Neuland:
Grundlagen Generative KI und Prompting (2 Vormittage): 20./21.01.2026 & 18./19.02.2026
Fortgeschrittene Anwendung generative KI (2 Vormittage): 08./09.01. & 26./27.02.2026
Individuelle Termine Online & Inhouse auf Anfrage.
Weitere Infos auf der Webseite

SHADOW AI: Der Unternehmensthriller
mit dem schlechtesten Ende aller Zeiten in 5 Akten

Erscheinungsjahr: 2025 (und täglich in deinem Unternehmen)
Genre: Corporate Thriller, Tragödie
Regie: Deine IT-Abteilung (unfreiwillig)
Hauptrollen: Deine produktivsten Mitarbeiter
Nebendarsteller: ChatGPT, Gemini, Midjourney, diverse KI-Tools
Besetzung: Jedes zweite Unternehmen weltweit
Laufzeit: Bis zum Datenschutzvorfall
FSK: Freigegeben ab Geschäftsführung
Warnung: Enthält Szenen von grober Fahrlässigkeit und organisiertem Chaos

Wie entsteht Schatten-KI?

🎬Akt 1 Die geheime KI-Schwarzarbeit

Während Lisa in der IT-Abteilung noch die dritte Risikoanalyse für ChatGPT durchführt, hat Uwe im Marketing längst ein halbes Dutzend KI-Tools im Einsatz. Niemand weiß davon. Niemand muss es wissen.
Uwes Argument: “Die Präsentation schreibt sich schließlich nicht von selbst!” Die offizielle Freigabe? Kommt ja eh erst in sechs Monaten. Vielleicht.
Willkommen in der Welt der Shadow AI: wo Innovation auf Verzweiflung trifft und Produktivität wichtiger ist als Prozesse.

Schatten-KI: Mitarbeiter nutzen private KI Tools

🎬Akt 2 Die Dealer: Deine produktivsten Mitarbeiter

Die Ironie? Deine besten Leute sind die größten “Täter”. Der Vertriebsleiter Kai mit 140% Zielerreichung? ChatGPT schreibt seine E-Mails. Die Controllerin Jule, deren Reports plötzlich messerscharf formuliert sind? Gemini analysiert die Zahlen.
Sie sind keine Rebellen. Sie sind Pragmatiker in einem System permanenter Leistungssteigerung.

Fehlende KI Strategie führt zu Schatten-KI

🎬Akt 3 Die Schmuggler: Geschwindigkeit schlägt Compliance

Der Deal ist simpel: Wer auf die offizielle KI-Strategie wartet, verliert. Gegen die Konkurrenz. Gegen die Zeit. Gegen die eigenen Karriereziele. Also wird geschmuggelt: Kundendaten in kostenlose Tools, vertrauliche Dokumente in irgendeinen Chatbot, dessen Datenschutzerklärung niemand gelesen hat.
Die Logik ist bestechend: “Wenn es alle machen und nichts passiert, kann es nicht so schlimm sein.”

KI für notwendige Effizienz

🎬Akt 4 Wer schummelt, gewinnt: Die perverse Incentive-Struktur

Das System belohnt die Falschen. Die Abteilung, die DSGVO-konform arbeitet? Ineffizient. Das Team, das auf sichere Tools besteht? Blockiert Innovation.
Währenddessen räumt die Shadow-AI-Fraktion ab: schnellere Ergebnisse, beeindruckende Präsentationen, mehr Output. Die Beförderung geht an die Produktiven, nicht an die Regelkonformen.

Datenschutzprobleme der Schatten-KI

🎬Akt 5 Die Misere: Alle verlieren

Hier kommt der Plot Twist, den niemand sehen wollte:
Die Datenschutzbehörde meldet sich. Die Kundendaten sind kompromittiert. Das Geschäftsgeheimnis liegt im Trainingsdatensatz einer öffentlichen KI. Der Haftungsfall ist perfekt. Die Versicherung zahlt nicht (grobe Fahrlässigkeit).
Aber der Bösewicht dieser Geschichte ist nicht der Datenschutz. Er war der ignorierte Warner, der die ganze Zeit “Iceberg ahead!” gerufen hat, während alle Vollgas gegeben haben.

The End?

Das Ende steht im Drehbuch: Datenschutzvorfall. Chaos. Alle verlieren.
Aber wie bei jedem Horrorfilm denkt jeder: “Uns passiert das nicht.”
Der Film läuft weiter. Bis jemand “Cut!” ruft.

Hier geht es zum Beitrag auf LinkedIn: Schatten-KI

Da trifft KI-Geschwurbel auf Menschenleben!

Hohle Phrasendrescherei, klingt aber so gefällig, dass niemand mehr nachfragt: Soll ChatGPT wirklich helfen, Gefühle zu verarbeiten oder doch eher nicht?

Sprechen wir ChatGPT diese Kompetenz zu (weil ChatGPT gefälligst alles können muss) und erwarten fundierte psychologische Kompetenz von einem … Sprachmodell?

Für alle, die es nicht mitbekommen haben:

Eine Studie zeigt, dass jede Woche über 1Mio Menschen mit ChatGPT über Suizidgedanken sprechen.

Es wird wieder eine neue Sau durchs KI-Dorf getrieben: Eine Studie zeigt, dass jede Woche über 1Mio Menschen mit ChatGPT über Suizidgedanken sprechen. Ist das nicht ein Thema, das wir den Experten überlassen sollten, die sich professionell mit Psychologie, Suizidprävention und Krisenintervention beschäftigen?

Symptom einer Zeit, in der jeder mitreden kann

Was wir hier sehen, ist für mich symptomatisch: Fachexpertise wird als allgemein zugänglich missverstanden, weil ich ChatGPT nach seiner (= meiner?) Meinung fragen kann: Studie hochladen, KI bitten, einen Post aus „meiner“ Perspektive als KI-Experte zu erstellen und schon kann ich bei einem hochkomplexen, sensiblen Thema mitreden, das zweifellos von höchster Relevanz ist, aber eben auch schwerwiegende Auswirkungen auf Menschenleben hat.

Was wäre stattdessen meine Aufgabe als KI-Experte?

Ich sollte die technische Realität aufzeigen, die belegt, warum ChatGPT nicht zur psychologischen Beratung geeignet ist:

-> Wie funktioniert ein LLM: um verständlich zu machen, WARUM ChatGPT nicht als Ersatz für Psychotherapie oder Krisenintervention geeignet ist

-> Prompts zur Vermeidung von Confirmation Bias

-> Grenzen von KI-Modellen erklären

-> Datenethik thematisieren

Wir müssen nicht jedes Thema KI-isieren

Tipps wie “ChatGPT kann durchaus ein unterstützender Raum sein, in dem Menschen ihre Gefühle verarbeiten” gehören nicht von KI Experten formuliert, und schon gar nicht in einem so sensiblen Zusammenhang.

Wir jonglieren hier mit Zahlen über Menschen in existenziellen Krisen, als wären es Marktanteile oder Nutzungsstatistiken. Das ist mindestens unseriös.

Was wirklich hilft

Wenn wir uns um die psychische Gesundheit von Menschen sorgen, gibt es wirksame Wege zu helfen:

-> Ehrenamtliche Mitarbeit bei Krisendiensten

-> Spenden an Organisationen, die Suizidprävention und psychische Gesundheit fördern

-> Politisches Engagement für bessere Finanzierung niedrigschwelliger Therapieangebote

-> Aufklärungsarbeit leisten über Warnsignale und Hilfsangebote

-> Zeit nehmen für Menschen im eigenen Umfeld, die Unterstützung brauchen

Wir sollten lernen, einen Gang zurückzuschalten und zu sagen: „Das ist nicht mein Thema. Hier braucht es andere Stimmen.”

Plötzlich sind alle Experten – für alles

Der Hype um generative KI hat uns vorgegaukelt, dass Expertise demokratisiert wurde. Tatsächlich hat KI nur die Illusion von Expertise demokratisiert: Jeder kann einen eloquenten, scheinbar durchdachten Text zu jedem Thema generieren, aber das macht ihn weder richtig, noch verantwortungsvoll und schon gar nicht hilfreich.

Hier findest Du den Beitrag auf LinkedIn: Gespräche mit ChatGPT über Suizidgedanken