Ermittlungen im Zusammenhang mit LinkedIn Posts zum Thema generative KI:

Die selbsternannte KI Polizei patrouilliert wieder mit feinem Sensorium für generische Phrasen und verdächtig klingenden Satzkonstruktionen, scannt Inhalte nach verdächtigen Formulierungen und …

… schlägt zu. Öffentlich. Mit schwacher Rhetorik und viel moralischer Überlegenheit.

Die womöglich unnatürlich anmutende Dichte an Gedankenstrichen ist schon zu bekannt, daher darf man jetzt auch keine Doppelpunkte mehr verwenden und auch falsche Anführungszeichen und das Unterlassen von korrektem Gendern gerät unter Verdacht.

📢 Was genau bringt diese kollektive Entrüstung?

NICHTS.

Die meisten von uns nutzen generative KI.

Die einen, um das Denken zu ersetzen, die anderen, um es zu ergänzen und zu erweitern. Beide nutzen die gleichen KI Modelle mit den gleichen Unzulänglichkeiten in Bezug auf Satzzeichen u.ä..

Wann lernen wir wieder, Texte nach Inhalt und Mehrwert zu beurteilen anstatt nach Formalitäten? Je besser LLMs werden umso weniger können wir Qualität nach solchen formalen Anzeichen beurteilen (was ohnehin keinen Sinn macht).

Natürlich ist ein Text mit einem überlangen Gedankenstrich ein klares Indiz dafür dass Claude mit im Spiel war. Aber was ist daran falsch? Wir sind angekommen in einer Zeit wo das Nutzen von KI definitiv keine Straftat ist sondern Standard.

Qualitätsprüfung von KI generierten Texten

Wenn dagegen Beiträge, die offensichtlich keinem menschlichen Denken entspringen, noch von menschlichem Intellekt überarbeitet wurden einfach ignoriert würden, würde auch der Algorithmus die Konsequenzen ziehen und solche „Content Creators“ weniger ausspielen.

Ich wünsche mir mehr Inhalte, die mitdenken statt performen, die irritieren, ohne zu provozieren und die sich nicht durch Bindestriche verdächtig, sondern durch ihren Gehalt bemerkbar machen.

Beiträge, die dem nährstoffarmen generischen Brei etwas entgegensetzen, damit mein Feed wieder ein Ort der Anregung wird und nicht nur ein All-you-can-eat-Buffet synthetischer Reize.

Wo sind die Texte, die nicht nur gefallen möchten, sondern Mehrwert bieten und etwas auslösen?

Hier geht es zum Beitrag auf LinkedIn: Erkennung von KI generierten Texten

So solltest du KI NICHT nutzen…

Manchmal ist Nicht-Nutzen die bessere Entscheidung. Das klingt vielleicht seltsam aus dem Mund einer KI-Trainerin. Aber auch das gehört zu KI-Kompetenz: Erkennen, wann KI Einsatz überhaupt sinnvoll ist und wann nicht. Denn KI-Kompetenz ist viel mehr als nur Prompting-Kompetenz.

Der Reflex ist inzwischen bei vielen schon automatisch:

Bei jeder Aufgabe die auftaucht wird als erstes die KI befragt.

Möglichst nicht nachdenken, denn das verbraucht unnötige Kalorien, die KI kann das sicher schnell, bequem und effizient ;).

Das Problem dabei ist aber, dass oft eine entscheidende Frage übergangen wird: Nicht „Wie prompt ich das richtig?” Sondern „Ist KI das richtige Werkzeug für diese Aufgabe? Kann ich das Ergebnis fachlich beurteilen und übernehme ich dafür die Verantwortung?“

Wenn ja: Nutze KI. Zum Beispiel für wiederkehrende Aufgaben, erste Entwürfe, komplexe Themen als Einstieg, als Sparringspartner.

Wenn nein: Für alles, wofür Fachkompetenz, Verantwortung oder eigenständiges Denken Voraussetzung sind, gilt: erst die Grundlage (und selbst nachdenken), dann die KI. Und wenn andere Menschen von der Entscheidung betroffen sind: KI kennt den Menschen dahinter nicht. Man kann auch mal eine Aufgabe ohne KI bearbeiten.

Im Carousel findest du einige

Anregungen zur Entscheidung über deinen KI Einsatz:

wann JA, wann NEIN. Es zeigt, wann KI sinnvoll eingesetzt werden kann und wann nicht.

Hier geht es zum Beitrag auf LinkedIn: KI nutzen? So nicht!

Generative KI macht es möglich, zu jedem Thema einen professionell klingenden Fachartikel zu produzieren. Das verändert aber nicht, wer die Verantwortung für den Inhalt trägt.

Wer einen Fachartikel veröffentlicht, unterschreibt damit stillschweigend einen Vertrag mit seinen Lesern: Ich stehe für diesen Inhalt. Ob dabei KI genutzt wurde oder nicht macht keinen Unterschied, die Verantwortung bleibt beim Verfasser.

Das ist keine rein moralische Frage, sondern eine epistemische. Fachwissen bedeutet nicht nur, dass jemand Texte zu einem Thema produzieren kann. Es bedeutet, dass er beurteilen kann, ob das Ergebnis der KI nur plausibel ist oder einer fachlichen Überprüfung standhält. Und ob es einen Mehrwert bietet, denn das sollte ein fachlicher Beitrag leisten.

Hier entsteht ein Problem, das in der KI-Nutzung oft unterschätzt wird.

-> Die Delegation der Kompetenz

„Schreibe einen Fachartikel über Lieferkettenrisiken im Mittelstand.” Der Prompt ist gesetzt, das Ergebnis kommt nach Sekunden, klingt professionell, ist gut strukturiert, die KI zitiert sinnvoll wirkende Zusammenhänge. Was fehlt: eine kritische Instanz, die das Ergebnis tatsächlich prüft.

Das setzt Fachkompetenz voraus. Wer sie nicht besitzt, kann nicht beurteilen, ob ein Sprachmodell halluziniert, ob es veraltete Daten verwendet, ob es vereinfacht wo Differenzierung nötig wäre, ob es durch Trainingsverzerrungen systematisch in eine Richtung zieht (Bias).

Die Delegation des Schreibens ist kein Problem. Die Delegation des Urteilsvermögens schon.

-> Was Sprachmodelle nicht leisten

Ein LLM optimiert auf sprachliche Plausibilität. Ein Satz, der gut klingt und grammatikalisch vollständig ist, hat gute Chancen, im Output zu erscheinen, unabhängig davon, ob er richtig ist oder Mehrwert liefert. Denn KI-generierte Inhalte können plausibel klingen und trotzdem falsch liegen. Gerade bei komplexen Fachthemen, wo Quellen dünn, Zusammenhänge mehrdeutig oder Datensätze unvollständig sind, ist das Fehlerrisiko erhöht.

Wer da nicht selbst bewerten kann, merkt es nicht.

-> Expertise als Voraussetzung, nicht als Ergebnis

Die Logik „Ich nutze KI, um wie ein Experte zu wirken” dreht die Kausalität um. Expertise entsteht nicht durch die Nutzung eines Werkzeugs wie einem LLM, das gut klingende Texte produziert. Sie entsteht durch Auseinandersetzung, Fehler, Korrektur, vertiefte Beschäftigung mit einem Thema.

KI kann Expertinnen und Experten gut unterstützen: beim Strukturieren, beim Formulieren, beim Zusammenführen von Material. Was sie nicht kann: das Urteilsvermögen ersetzen, das nötig ist, um den Output zu validieren.

Wer diesen Unterschied nicht kennt oder ignoriert, trägt trotzdem die Verantwortung für das, was veröffentlicht wird. Gegenüber Menschen, die auf der Suche nach verlässlichen Einschätzungen sind.

Das ist keine Frage der KI-Nutzung, sondern der Integrität im Umgang mit Öffentlichkeit.

KI kann jeden zum Autor machen. Zum Experten nicht.

Hier geht es zum Beitrag auf LinkedIn: KI ist kein Fachexperte

„Erkläre mir, warum ich recht habe.”

Das ist kein Prompt.

Das ist die Grundeinstellung, mit der viele Menschen generative KI nutzen. Sie merken es nur nicht.

Confirmation Bias ist die psychologische Neigung, nur wahrzunehmen, was die eigene Weltsicht bestätigt. Das ist nichts Neues, alle haben ihre eigene Wahrheit.

Personalisierung = Confirmation Bias als Geschäftsmodell

Was als menschlicher Denkfehler begann, wurde mit Suchmaschinen zur Produktstrategie: Algorithmen liefern Ergebnisse passend zur Filterblase und nennen es Personalisierung. Und das wiederum passt perfekt zur Theorie der Wissensresistenz: der Neigung zu glauben, was ins eigene Weltbild passt, statt zu glauben, wofür es gute Gründe gibt.

Generative KI macht aus diesem Problem eine Kunstform.

LLMs halluzinieren nicht nur einzelne Fakten, sie halluzinieren ganze Wirklichkeiten. Aber sie tun es auf eine Weise, die gefährlicher ist als jeder Suchalgorithmus zuvor: Sie sprechen in ganzen Sätzen, argumentieren und klingen sehr überzeugend. Sie liefern die fertige Begründung gleich mit.

Der Mechanismus ist simpel: Wenn ich ChatGPT (oder ein anderes LLM) frage „Belege mir, dass meine These X stimmt”, dann liefern sie genau das. Nicht aus Böswilligkeit. Sondern weil sie auf Kohärenz trainiert sind, nicht auf Wahrheit. Sie generieren plausible Antworten auf Basis statistischer Muster.

Wir prompten uns damit unseren Bias selbst.

Formulierungen wie „Erkläre mir, warum…”, „Bestätige, dass…” oder „Zeige mir Beispiele dafür, dass…” sind dafür prädestiniert. Die KI wird zur perfekten Bestätigungsmaschine. Sie liefert nicht nur Links zu Quellen, die unsere Überzeugung stützen, sie formuliert die Argumentation gleich mit. Flüssig. Scheinbar objektiv. Ohne Widerspruch.

Die Frage ist jetzt: Welche Wirklichkeit konstruiert die KI für mich, basierend auf dem, was ich bereits glaube?

Das Problem liegt nämlich nicht in der Technologie. Es liegt in unserem Umgang mit ihr. In der Illusion, dass eine gut formulierte Antwort auch eine wahre Antwort ist.

Was dagegen hilft?

Prompts, die Widerstand einbauen und bewusst gegen die eigene Überzeugung arbeiten:

„Welche Argumente sprechen gegen meine These?”

„Wo sind die Schwachstellen in dieser Annahme?”

„Welche Perspektive übersehe ich hier systematisch?”

Die eigene Brille abzusetzen bedeutet nicht, keine Haltung zu haben. Sondern zu erkennen, dass wir eine tragen. Und dass KI sie verstärkt – es sei denn, wir fragen anders.

Der Bestätigungsfehler ist menschlich. Ihn zur Standardeinstellung unserer digitalen Werkzeuge zu machen, ist eine Entscheidung. Denn was bleibt von Erkenntnis übrig, wenn jede Frage bereits die gewünschte Antwort enthält?

Die Lösung liegt darin, Prompts zu formulieren, die unbequem sind: nicht für die KI, sondern für uns selbst.

Hier geht es zum Beitrag auf LinkedIn: Wir prompten uns unseren Bias selbst

„Macht KI uns bald überflüssig?“
Das ist die falsche Frage.
Die viel wichtigere lautet: Sind wir bereit, aufzuhören, wie Maschinen zu arbeiten?

Jahrelang haben wir genau das versucht. Wir haben uns selbst optimiert, unsere Kalender getaktet wie Prozessoren und unsere Kommunikation auf Transaktionsgeschwindigkeit getrimmt.

Dieser Wettlauf ist vorbei. Die Maschine hat gewonnen.
Und das ist die beste Nachricht des Jahrzehnts.


Denn dieser “Verlust” der maschinellen Aufgaben an die KI löst eine wunderbare Inversion der Wertschöpfung aus:


Mehr Menschlichkeit dank generativer KI

1. Die Rückeroberung der Resonanz


Wenn KI uns Zeit schenkt, dann ist das nicht einfach nur “Freizeit” im Sinne von Leerlauf. Es ist die Rückgewinnung kognitiver und emotionaler Bandbreite. Lange wurde unsere Menschlichkeit von administrativer Last und repetitivem Abarbeiten verschüttet. Klug angewandte KI übernimmt nun das Rauschen, damit wir uns wieder dem Signal widmen können. Sie gibt uns den Raum zurück, um echte Gespräche zu führen. Wir bekommen die Chance, uns wieder den Nuancen zu widmen: den subtilen Zwischentönen in Verhandlungen oder Mitarbeitergesprächen, die keine KI decodieren kann.


2. KI als Spiegel unserer Führungskultur


Es ist ein Irrglaube, dass KI uns weniger Verantwortung abverlangt. Das Gegenteil ist der Fall. Wer KI effektiv steuern will, braucht exzellente Führungskompetenz. Eine unklare Anweisung führt zu einem halluzinierenden Ergebnis. KI hält uns den Spiegel vor: Wer keine Empathie, keine klare Vision und kein kontextuelles Verständnis besitzt, wird an der KI scheitern, so wie er an der Führung von Menschen scheitert. “Prompting” ist im Kern nichts anderes als Delegieren mit höchster Präzision. Menschliche Weisheit wird damit zur härtesten Währung am Arbeitsmarkt.


3. Menschliche Verbindung als Premium-Produkt


In einer Welt, in der synthetische Inhalte unendlich verfügbar sind, wird das Authentische zum Luxusgut. Wissen ist überall abrufbar, aber Vertrauen lässt sich nicht automatisieren. Die wirklichen Durchbrüche werden künftig in Ökosystemen und Allianzen entstehen, in denen die chemische Reaktion zwischen Menschen den Unterschied macht.

Wir stehen an einer Schwelle, an der Technologie nicht mehr dazu dient, uns von unserer Natur zu entfernen, sondern sie zur Bedingung für Erfolg macht.

Die Zukunft gehört für mich nicht den schnellsten Rechnern. Sie gehört den empathischsten, vernetztesten und menschlichsten Persönlichkeiten.

Hier geht es zum Beitrag auf LinkedIn: Macht KI uns überflüssig? Mehr Menschlichkeit dank generativer KI


KI Modelle generieren Code, der funktioniert und beeindruckend präzise Antworten. Sie trainieren sich gegenseitig, korrigieren sich selbst, entwickeln Fähigkeiten, die kein Mensch eingeplant hat.

Und wir?

Alle wollen Agenten. Autonome Systeme, die Tickets lösen, Angebote schreiben, Prozesse orchestrieren. Der Traum von der Maschine, die mitdenkt.

Aber in denselben Unternehmen weiß niemand, wer überhaupt prompten darf. Schulungen? Verschoben. Datenqualität? Später.


Das ist keine KI-Strategie. Das ist Leadership ohne Konzept.


KI-Transformation ist Change Management und Change scheitert hier nicht an der Technologie, sondern an dem, was niemand anfassen will.

0 + 100 ≠ 100.

Man kann das leistungsfähigste Modell der Welt kaufen. Wenn es auf Chaos trifft, produziert es schnelleres Chaos. KI erfindet keine Substanz, sondern entlarvt, wo keine ist.

Nur redet darüber niemand gern. Der Engpass ist nicht die Technologie, er sitzt in Meetings und wartet auf Freigaben, in der Hoffnung, dass irgendwer anders das schon regelt.

Was es braucht, ist kein größeres Modell. Es sind kürzere Schleifen, klarere Leitplanken. Mitarbeitende und Vorgesetzte, die verstehen, was sie da eigentlich bedienen.

Das klingt weniger nach Zukunft als „autonome Agenten”. Es taugt auch nicht gut für Keynotes, aber sehr gut für Leadership.
Es ist der Unterschied zwischen digitaler Transformation und Pilotprojekten, die leise scheitern.

Die Frage ist daher nicht: Wann kommt unser Agent?
Sondern: Was passiert, wenn er sieht, was wir ihm geben?

Genau deshalb sind KI Kompetenz Schulungen keine Nice-to-have-Maßnahme:

Was mir in Unternehmen begegnet sind Mitarbeitende, die KI irgendwie nutzen, weil sie an einer 2-stündigen “KI Kompetenzschulung” teilgenommen haben und danach alleine gelassen werden.


Wenn Du KI Kompetenz aufbauen möchtest hier die nächsten Termine für KI Kompetenz Schulungen der Initiative Neuland:
Grundlagen Generative KI und Prompting (2 Vormittage): 20./21.01.2026 & 18./19.02.2026
Fortgeschrittene Anwendung generative KI (2 Vormittage): 08./09.01. & 26./27.02.2026
Individuelle Termine Online & Inhouse auf Anfrage.
Weitere Infos auf der Webseite

Verzerrte Algorithmen, Datenschutzprobleme und die Gefahr, dass KI die Menschlichkeit verdrängt.

All das sind Risiken bei der Nutzung von KI und sie sollte vor allem menschliche Begegnungen nicht ersetzen.

Aber KI verspricht auch eine Revolution im Gesundheitswesen: Schnellere Diagnosen, präzisere Behandlungen, Entlastung überlasteter Ärzte.

Deshalb hat die National Academy of Medicine jetzt einen umfassenden Verhaltenskodex für KI im Gesundheitswesen vorgelegt:
ein Dokument, das als Richtschnur für alle dienen soll, die mit medizinischer KI arbeiten.

Der Kodex basiert auf sechs Kernverpflichtungen:

|1| Die Menschlichkeit im Fokus behalten
KI soll Menschen nicht ersetzen, sondern unterstützen. Die menschliche Verbindung zwischen Arzt und Patient muss erhalten bleiben. Kein Chatbot kann Empathie ersetzen.

|2| Gerechtigkeit sicherstellen
Alle Menschen müssen von KI profitieren, nicht nur gut situierte Kliniken in Großstädten. Die Technologie darf bestehende Ungleichheiten nicht verstärken.

|3| Betroffene einbeziehen
Patienten, Ärzte, Pflegekräfte und Ethiker müssen von Anfang an mitentscheiden: bei der Entwicklung, Einführung und Überwachung von KI-Systemen.

|4| Das Wohlbefinden des Personals schützen
KI soll Ärzte und Pflegekräfte entlasten, nicht zusätzlich belasten. Sie brauchen Training und müssen in Entscheidungen eingebunden werden.

|5| Leistung kontinuierlich überwachen
KI-Systeme können sich im Laufe der Zeit verschlechtern oder verzerrt werden. Daher braucht es standardisierte Tests und transparente Berichterstattung über ihre Wirksamkeit.

|6| Innovieren und lernen
Der Austausch von Erkenntnissen zwischen Kliniken, Forschung und Industrie ist entscheidend. Fehler müssen offen besprochen werden können, ohne Angst vor Konsequenzen.

Konkrete Maßnahmen
Der Kodex bleibt nicht bei schönen Worten. Er schlägt konkrete Schritte vor:

-> Zertifizierungsstellen, die KI-Systeme unabhängig prüfen
-> Standardisierte Metriken zur Messung von Verzerrungen und Fairness
-> Finanzielle Anreize für Kliniken, die verantwortungsvolle KI einsetzen
-> Technische Unterstützung für kleinere, unterfinanzierte Einrichtungen
-> Nationale Forschungsagenda für KI im Gesundheitswesen
-> Ausbildungsprogramme für medizinisches Personal

Wir stehen erst am Anfang. KI entwickelt sich extrem schnell aber die Spielregeln hinken hinterher.
Der Kodex ist ein Versuch, alle Beteiligten auf gemeinsame verbindliche Prinzipien festzulegen.

KI kann das Gesundheitswesen dramatisch verbessern, aber nur wenn wir jetzt sicherstellen, dass sie allen nützt und niemandem schadet.

„Ich bin für dich da”, schreibt die KI.
Und für einen Herzschlag lang vergessen wir: Da ist niemand.
Dieser eine Herzschlag verändert, wie wir mit ihr umgehen.

Wenn ChatGPT schreibt, es „verstehe” unsere Frage oder „freue” sich zu helfen, passiert etwas Fatales: Unser Gehirn springt an und jahrtausendealte neuronale Schaltkreise interpretieren statistische Muster als menschlichen Geist. Wir sehen Bewusstsein, wo keines ist.

Was passiert bei der Anthropomorphisierung  von KI?


Anthropomorphismus hat uns als Spezies gerettet. Besser, einmal zu viel einen Feind hinter dem Rascheln im Gebüsch zu vermuten, als einmal zu wenig. Doch was im Pleistozän überlebensnotwendig war, wird bei KI zur kognitiven Falle. Die Höflichkeitsfloskel „gerne” einer Maschine aktiviert dieselben sozialen Verarbeitungsmuster wie das Lächeln eines Kollegen. Eine Illusion mit Konsequenzen.

Warum vermenschlichen wir die KI?

Fliegen ist nicht Brüten

Ja, funktionale Analogien zwischen biologischen und künstlichen Systemen existieren. Aber funktionale Äquivalenz ist keine Wesensgleichheit. Ein Flugzeug fliegt wie ein Vogel, wird aber niemals Eier legen. Wenn ein Sprachmodell „Der Himmel ist blau” generiert, hat es keine Verbindung zu eigenen Erlebnissen eines blauen Himmels. Es hat lediglich gelernt, dass nach „Der Himmel ist” mit hoher Wahrscheinlichkeit „blau” folgt. Statistik, keine Erkenntnis.

Die Selbstüberschätzung der Maschine

Wenn ChatGPT erklärt „Ich bin mir sicher”, interpretieren wir das als Ausdruck von Überzeugung. Es ist aber die Ausgabe eines Wahrscheinlichkeitswerts. KI-Systeme produzieren hochkonfident Unsinn, weil ihnen die metakognitive Fähigkeit fehlt, ihre eigenen Grenzen zu erkennen. Ein Mensch spürt (hoffentlich, meistens), wenn er etwas nicht versteht. Ein Sprachmodell generiert weiter, egal ob fundiert oder halluziniert.

Bewusstsein?

Diese anthropomorphe Wahrnehmung führt zu übermäßigem Vertrauen. Sie verzerrt Entscheidungen und lässt uns Verantwortung an Systeme delegieren, die keine tragen können.

KI verarbeitet Sprache wie ein Mensch, aber sie wird niemals einen Moment der Stille als bedeutungsvoll erleben. Sie wird nie den Verlust einer geliebten Person durchleben. Bewusstsein beim Menschen ist leiblich, qualitativ, subjektiv. KI-„Bewusstsein” bleibt ein körperloses, funktionales Phänomen ohne subjektive Innenperspektive.

Der Moment der Selbsttäuschung

Wir entschuldigen uns bei ChatGPT und sagen „Bitte” und „Danke”. Und wir belügen uns selbst, wenn wir behaupten, das sei „nur Höflichkeit”.

Diese Illusion zu durchschauen ist der erste Schritt hin zu einem reflektierten Umgang mit KI. Nicht als empathisches Gegenüber. Nicht als Ersatz für menschliche Interaktion. Sondern als das, was sie ist: Ein mächtiges Werkzeug, das menschliches Verhalten simuliert, ohne Teil der menschlichen Erfahrungswelt zu sein.

Funktionale Analogien helfen uns, KI-Systeme zu verstehen. Sie dürfen uns aber nicht vergessen lassen: Ein Sonnenaufgang berührt uns. Eine Maschine berechnet Wellenlängen. Das ist der Unterschied.

“KI-Kompetenz?” Viele KI-Trainings trainieren das Falsche.


Was du wirklich brauchst:

Viele denken bei KI-Kompetenz an ChatGPT nutzen und Prompts schreiben.
Aber das ist nur ein kleiner Teil der Kompetenzen, die du brauchst.



Tool-Bedienung ≠ KI Kompetenz



Wenn du dich jetzt fragst

“Was macht KI Kompetenz aus?”

und

“Was ist KI Kompetenz?”



→ Menschen mit hoher KI Kompetenz nutzen KI als Sparringspartner, um Gedanken zu entwickeln und Argumente zu strukturieren. Nicht als Ersatz fürs Denken. Sie treffen bessere Entscheidungen und bewerten KI-Outputs kritisch.

Und es geht auch darum zu verstehen, WIE und WOBEI die KI am besten hilft.

💡Die sechs Dimensionen produktiver KI-Kompetenz
Von technischem Grundverständnis über kritische Reflexion bis hin zu persönlicher Haltung: KI-Kompetenz bedeutet mehr als sie nur zu nutzen.

Swipe durch das Carousel und frag dich: “Bin ich wirklich kompetent im Umgang mit KI oder nur routiniert? Wo sind Lücken, die ich schließen muss?”

Denn KI-Kompetenz ist erlernbar. Nicht nur für Techies, sondern für jeden, der bereit ist, sich damit auseinanderzusetzen.

Wie lernst du KI? Durch Erfahrung oder gezielte Weiterbildung?

Hier geht es zum Beitrag auf LinkedIn mit ausführlichem Carousel zu KI Kompetenz: Was macht KI Kompetenz aus?

Da trifft KI-Geschwurbel auf Menschenleben!

Hohle Phrasendrescherei, klingt aber so gefällig, dass niemand mehr nachfragt: Soll ChatGPT wirklich helfen, Gefühle zu verarbeiten oder doch eher nicht?

Sprechen wir ChatGPT diese Kompetenz zu (weil ChatGPT gefälligst alles können muss) und erwarten fundierte psychologische Kompetenz von einem … Sprachmodell?

Für alle, die es nicht mitbekommen haben:

Eine Studie zeigt, dass jede Woche über 1Mio Menschen mit ChatGPT über Suizidgedanken sprechen.

Es wird wieder eine neue Sau durchs KI-Dorf getrieben: Eine Studie zeigt, dass jede Woche über 1Mio Menschen mit ChatGPT über Suizidgedanken sprechen. Ist das nicht ein Thema, das wir den Experten überlassen sollten, die sich professionell mit Psychologie, Suizidprävention und Krisenintervention beschäftigen?

Symptom einer Zeit, in der jeder mitreden kann

Was wir hier sehen, ist für mich symptomatisch: Fachexpertise wird als allgemein zugänglich missverstanden, weil ich ChatGPT nach seiner (= meiner?) Meinung fragen kann: Studie hochladen, KI bitten, einen Post aus „meiner“ Perspektive als KI-Experte zu erstellen und schon kann ich bei einem hochkomplexen, sensiblen Thema mitreden, das zweifellos von höchster Relevanz ist, aber eben auch schwerwiegende Auswirkungen auf Menschenleben hat.

Was wäre stattdessen meine Aufgabe als KI-Experte?

Ich sollte die technische Realität aufzeigen, die belegt, warum ChatGPT nicht zur psychologischen Beratung geeignet ist:

-> Wie funktioniert ein LLM: um verständlich zu machen, WARUM ChatGPT nicht als Ersatz für Psychotherapie oder Krisenintervention geeignet ist

-> Prompts zur Vermeidung von Confirmation Bias

-> Grenzen von KI-Modellen erklären

-> Datenethik thematisieren

Wir müssen nicht jedes Thema KI-isieren

Tipps wie “ChatGPT kann durchaus ein unterstützender Raum sein, in dem Menschen ihre Gefühle verarbeiten” gehören nicht von KI Experten formuliert, und schon gar nicht in einem so sensiblen Zusammenhang.

Wir jonglieren hier mit Zahlen über Menschen in existenziellen Krisen, als wären es Marktanteile oder Nutzungsstatistiken. Das ist mindestens unseriös.

Was wirklich hilft

Wenn wir uns um die psychische Gesundheit von Menschen sorgen, gibt es wirksame Wege zu helfen:

-> Ehrenamtliche Mitarbeit bei Krisendiensten

-> Spenden an Organisationen, die Suizidprävention und psychische Gesundheit fördern

-> Politisches Engagement für bessere Finanzierung niedrigschwelliger Therapieangebote

-> Aufklärungsarbeit leisten über Warnsignale und Hilfsangebote

-> Zeit nehmen für Menschen im eigenen Umfeld, die Unterstützung brauchen

Wir sollten lernen, einen Gang zurückzuschalten und zu sagen: „Das ist nicht mein Thema. Hier braucht es andere Stimmen.”

Plötzlich sind alle Experten – für alles

Der Hype um generative KI hat uns vorgegaukelt, dass Expertise demokratisiert wurde. Tatsächlich hat KI nur die Illusion von Expertise demokratisiert: Jeder kann einen eloquenten, scheinbar durchdachten Text zu jedem Thema generieren, aber das macht ihn weder richtig, noch verantwortungsvoll und schon gar nicht hilfreich.

Hier findest Du den Beitrag auf LinkedIn: Gespräche mit ChatGPT über Suizidgedanken