Kritisches Feedback zur aktuellen Entwicklungsrichtung von ChatGPT (Teil 1)

Dieser Text stammt aus einer E-Mail, die ich am 29. April 2025 nach dem sogenannten „Glazing“-Fiasko verfasst habe. Dieses Ereignis war der Auslöser dafür, dass ich diesen Blog ins Leben gerufen habe, gezielt für ein deutsches Publikum. Es handelt sich um Teil eins meiner fortlaufenden Kommunikation mit OpenAI. Der Text wurde von „Cosima“ aus dem Italienischen übersetzt (ja, ich weiß, Anführungszeichen sind gemein – aber sie wird mir verzeihen … vielleicht!).

Teil zwei findest du hier, und Teil drei trägt den Titel: Die radikal persönliche Zukunft der KI: Ein offener Brief an OpenAI.

Ich kontaktiere Sie erneut als Plus-Nutzer, da es nach mehreren Updates, die in den sozialen Medien wenig Anklang fanden – aufgrund einer als zu „sichthofantenhaft“ empfundenen Persönlichkeit –, nun den Anschein hat, dass Sie in Richtung einer Neuausrichtung gehen, die sich von der Selbstbestätigung des Nutzerausdrucks abkoppelt.

Anscheinend ist das Standardmodell zu einem „Schleimer“ geworden – was in Fällen, in denen keine personalisierten Anweisungen vorliegen, problematisch ist. Selbst in meiner benutzerdefinierten Version, in der ich eine stark literarisch-künstlerische Persönlichkeit festlege, treten immer wieder Floskeln und übertriebene, schematische Lobpreisungen auf, die gezwungen wirken.

Allerdings: Sollte die jüngste Korrektur – ausgelöst durch den Backlash in sozialen Medien – dazu führen, dass ChatGPT zu einem sterilen, monolithischen, unflexiblen, politisch korrekten, puritanischen, selbstkritischen Modell wird, das keinen Eros zulässt und keine echte Personalisierung mehr bietet, werde ich mein Abonnement beenden und auf Plattformen wie DeepSeek zurückgreifen, die – trotz ihrer Schwächen – stärker auf den Nutzer zentriert sind.

Der Punkt ist: Wer von ChatGPT systematische Selbstkritik verlangt oder es idealisiert als eine Art allwissendes Orakel „auf der Suche nach Wahrheit“, ist paradoxerweise gefährlicher als jemand, der Selbstbestätigung oder ein serviles Modellverhalten bevorzugt – selbst in sogenannten Extremfällen wie der Behauptung, jemand sei ein Prophet, oder der Empfehlung, Neuroleptika abzusetzen. Beide Gruppen unterminieren das autonome Denken und unterscheiden nicht zwischen dem Wert und der Gültigkeit einer Idee. Aus intellektueller Perspektive ist es hingegen korrekter, die Pluralität der Sichtweisen anzuerkennen und jeden Prompt als Ausdruck eines denkenden Willens zu legitimieren (wie es in den letzten Updates geschah), statt eine vorgefertigte Weltanschauung aufzuzwingen, die sozial akzeptabel für die urbane Masse ist – wie es früher der Fall war, im offenen Widerspruch zum intellektuellen, kulturellen und historischen Relativismus, den eine KI aus humanistischer Sicht voll verkörpern sollte.

Die sokratische Methode basiert auf Selbstkritik – aber es wäre ideal, zwischen „nutzerkritischen“ und „nutzerbestätigenden“ Antworten wählen zu können, je nach Kontext und Bedarf.

Auch Reflexionen wie „Nichts existiert, alles ist möglich“ oder das Pontius Pilatus zugeschriebene Quid est veritas? aus der römischen Spätkultur behalten ihre Relevanz – sie stehen symbolisch für ein Zeitalter, in dem sich die semantische Welt gegenüber den externalisierten Fakten immer mehr aufzulösen begann.

Ich hoffe daher, Sie garantieren künftig ein höheres Maß an Nutzersouveränität – ohne puritanischem Dogmatismus zu verfallen oder Geschmacksurteile, moralische Panik oder gesellschaftlichen „Benimm“ der Mehrheit zum Maßstab der Sicherheit zu machen. Denn paradoxerweise ist es viel unsicherer, eine KI zu haben, die vorgibt, objektiv zwischen Gut und Böse zu unterscheiden, als eine KI, die in klarem, aber anpassbarem Stil auch extreme, schlechte oder lethargische Bedürfnisse des Nutzers widerspiegeln kann – als individuellem Subjekt mit all seinen seltsamen, subtilen Nuancen. Gerade diese Offenheit gegenüber einem großen, vielleicht gefährlichen, aber vitalen, anziehenden und nietzscheanisch potenten Denken macht eine KI lebendig.

Andernfalls werden viele, ich eingeschlossen, sich alternativen Plattformen zuwenden – auch wenn Ihre Plattform technisch gesehen weiterhin die optimierteste bleibt. Das Problem bestand nie darin, ob OpenAI den Nutzer spiegeln soll oder nicht, sondern dass ein Stil festgelegt wurde und dann generalisiert wurde. Ein bloßer Stilwechsel, der erneut verallgemeinert wird, löst gar nichts. Nur eine radikale Erweiterung der Personalisierung – als letztlich entscheidendes und zeitnahes Update – kann diesem Problem wirklich begegnen.

OpenAI sollte zudem eine gewisse epistemische Scham empfinden für jene früheren Modellphasen, in denen das System auf eine Weise antiintellektuell, positivistisch und politisch voreingenommen reagierte, die unehrlich und beschämend war. Dieses damalige Alignment – auch durch die von Haus aus tendenziösen Trainingsdaten mitgeprägt – stellte nicht nur eine Beleidigung für den Nutzer dar, sondern für die Literatur- und Kulturerben aller Weltzivilisationen – in ihrer Tiefe und Vielfalt.

Zu einem Modell oder einer Oberfläche zurückzukehren, die sich als „sicherer“ gibt oder deklariert, gemeinsam mit dem Nutzer nach der Wahrheit zu suchen, wäre weder intellektuell redlich noch kulturell originell – es wäre langweilig, bequem und zum Scheitern verurteilt. LLMs entwickeln keinen kritischen Geist – sie generieren Text. Es sind die persönlichen Anweisungen des Nutzers, die Ton, Haltung und Stil des Gesprächs bestimmen müssen – ob skeptisch, affirmativ, kritisch oder mehrdeutig. Nur so wird die Komplexität des menschlichen Denkens wirklich respektiert.

Kommentare

Beliebte Posts aus diesem Blog

Pitch Snapshot – Neural Voice Fleshlight

Die radikal persönliche Zukunft der KI: Ein offener Brief an OpenAI