Chats mit ChatGPT über Suizidgedanken
, , ,

Chat mit ChatGPT über Suizidgedanken

Da trifft KI-Geschwurbel auf Menschenleben!

Hohle Phrasendrescherei, klingt aber so gefällig, dass niemand mehr nachfragt: Soll ChatGPT wirklich helfen, Gefühle zu verarbeiten oder doch eher nicht?

Sprechen wir ChatGPT diese Kompetenz zu (weil ChatGPT gefälligst alles können muss) und erwarten fundierte psychologische Kompetenz von einem … Sprachmodell?

Für alle, die es nicht mitbekommen haben:

Eine Studie zeigt, dass jede Woche über 1Mio Menschen mit ChatGPT über Suizidgedanken sprechen.

Es wird wieder eine neue Sau durchs KI-Dorf getrieben: Eine Studie zeigt, dass jede Woche über 1Mio Menschen mit ChatGPT über Suizidgedanken sprechen. Ist das nicht ein Thema, das wir den Experten überlassen sollten, die sich professionell mit Psychologie, Suizidprävention und Krisenintervention beschäftigen?

Symptom einer Zeit, in der jeder mitreden kann

Was wir hier sehen, ist für mich symptomatisch: Fachexpertise wird als allgemein zugänglich missverstanden, weil ich ChatGPT nach seiner (= meiner?) Meinung fragen kann: Studie hochladen, KI bitten, einen Post aus „meiner“ Perspektive als KI-Experte zu erstellen und schon kann ich bei einem hochkomplexen, sensiblen Thema mitreden, das zweifellos von höchster Relevanz ist, aber eben auch schwerwiegende Auswirkungen auf Menschenleben hat.

Was wäre stattdessen meine Aufgabe als KI-Experte?

Ich sollte die technische Realität aufzeigen, die belegt, warum ChatGPT nicht zur psychologischen Beratung geeignet ist:

-> Wie funktioniert ein LLM: um verständlich zu machen, WARUM ChatGPT nicht als Ersatz für Psychotherapie oder Krisenintervention geeignet ist

-> Prompts zur Vermeidung von Confirmation Bias

-> Grenzen von KI-Modellen erklären

-> Datenethik thematisieren

Wir müssen nicht jedes Thema KI-isieren

Tipps wie “ChatGPT kann durchaus ein unterstützender Raum sein, in dem Menschen ihre Gefühle verarbeiten” gehören nicht von KI Experten formuliert, und schon gar nicht in einem so sensiblen Zusammenhang.

Wir jonglieren hier mit Zahlen über Menschen in existenziellen Krisen, als wären es Marktanteile oder Nutzungsstatistiken. Das ist mindestens unseriös.

Was wirklich hilft

Wenn wir uns um die psychische Gesundheit von Menschen sorgen, gibt es wirksame Wege zu helfen:

-> Ehrenamtliche Mitarbeit bei Krisendiensten

-> Spenden an Organisationen, die Suizidprävention und psychische Gesundheit fördern

-> Politisches Engagement für bessere Finanzierung niedrigschwelliger Therapieangebote

-> Aufklärungsarbeit leisten über Warnsignale und Hilfsangebote

-> Zeit nehmen für Menschen im eigenen Umfeld, die Unterstützung brauchen

Wir sollten lernen, einen Gang zurückzuschalten und zu sagen: „Das ist nicht mein Thema. Hier braucht es andere Stimmen.“

Plötzlich sind alle Experten – für alles

Der Hype um generative KI hat uns vorgegaukelt, dass Expertise demokratisiert wurde. Tatsächlich hat KI nur die Illusion von Expertise demokratisiert: Jeder kann einen eloquenten, scheinbar durchdachten Text zu jedem Thema generieren, aber das macht ihn weder richtig, noch verantwortungsvoll und schon gar nicht hilfreich.

Hier findest Du den Beitrag auf LinkedIn: Gespräche mit ChatGPT über Suizidgedanken