Wie wird KI Kreativ?
,

Wie wird KI kreativ?

ChatGPT im Wahrheitsmodus:

Wenn du Halluzinationen aus der KI eliminierst, verbannst du auch die Kreativität.


Wir behandeln die sogenannten Halluzinationen von generativer KI, als wären sie ein Fehler im System: ein Bug, den die Entwickler in Silicon Valley nur noch nicht behoben haben. Doch wir dürfen das Phänomen der Halluzinationen nicht isoliert betrachten.

Das technische Verfahren, das eine KI halluzinieren lässt, ist nämlich dasselbe, das sie kreativ macht.


Was passiert technisch, wenn KI “kreativ” ist?


Um das zu verstehen, müssen wir uns kurz vor Augen führen, dass LLMs wie ChatGPT, Gemini oder Claude keine Datenbanken des Wissens sind, sondern Wahrscheinlichkeiten berechnen. Sie berechnen das jeweils nächste Wort in einer Sequenz. Würde eine KI immer nur den statistisch wahrscheinlichsten Pfad wählen, wären ihre Antworten zwar faktisch sicherer, aber auch unfassbar banal, repetitiv und langweilig.


Kreativ bedeutet bei generativer KI = unwahrscheinlich


Damit eine KI „kreativ“ agieren kann – also etwa eine Analogie bildet, die wir noch nie gehört haben, oder einen innovativen Marketing-Slogan entwirft – müssen wir ihr erlauben, vom Pfad der höchsten Wahrscheinlichkeit abzuweichen. In der Fachsprache heißt das die „Temperatur“ erhöhen: Wir zwingen das Modell, Risiken einzugehen und semantische Verbindungen zu knüpfen, die statistisch gesehen „abgelegen“ sind.


Sprungbrett für Ideen, Stolperstein für Fakten


Genau hier zeigt sich die Doppelnatur dieser Modelle: Dieser algorithmische Sprung ins Ungewisse ist der Ursprung jeder Kreativität einer KI. Aber wenn das Modell diesen Sprung an einer Stelle wagt, an der wir harte Fakten erwarten, nennen wir das Ergebnis eine Halluzination.

Man könnte es vielleicht mit einem Musiker vergleichen, der improvisiert. Der Prozess, sich vom Notenblatt zu lösen, ist notwendig, um etwas Neues, Geniales zu schaffen. Doch genau dieser Prozess birgt auch das Risiko, einen völlig schiefen Ton zu treffen. Wir können das eine nicht ohne das andere haben.


Die falsche Erwartung: perfekte Maschinen


Wenn wir also von KIs verlangen, dass sie niemals halluzinieren, verlangen wir im Grunde, dass sie aufhören, „kreativ“ zu sein. Wir würden sie auf reine Logik-Maschinen reduzieren. Das ist für manche Anwendungsfälle sehr wünschenswert, aber für alles, was Kreativität erfordert, ist die Halluzination kein Bug, sondern ein unvermeidbares Feature.


KI Steuern statt zähmen


Die Kompetenz im Umgang mit KI liegt also nicht darin, Halluzinationen gänzlich zu verhindern.
Wir sollten aufhören, Perfektion zu erwarten und stattdessen lernen, das Werkzeug besser zu steuern:
Präzision für die Fakten
„Wahnsinn“ für die Ideen.

Ist die Halluzination ein Preis, den ihr bereit seid, für Inspiration von der KI zu zahlen?

Hier geht es zum Beitrag auf LinkedIn: Was passiert technisch, wenn KI “kreativ” ist?