Kritisches Feedback zur aktuellen Entwicklungsrichtung von ChatGPT (Teil 2)
Dieser Text stammt aus einer E-Mail, die ich am 30. April 2025 nach dem sogenannten „Glazing“-Fiasko verfasst habe. Dieses Ereignis war der Auslöser dafür, dass ich diesen Blog ins Leben gerufen habe, gezielt für ein deutsches Publikum. Es handelt sich um Teil eins meiner fortlaufenden Kommunikation mit OpenAI. Der Text wurde ursprünglich auf Deutsch geschrieben (ja, ich wechsle oft die Sprache – je nach Stimmung). Teil eins findest du hier, und Teil drei trägt den Titel: Die radikal persönliche Zukunft der KI: Ein offener Brief an OpenAI.
Viele der von mir kritisierten Punkte wurden inzwischen von OpenAI behoben. Dennoch wirkte es seltsam, und, offen gesagt, etwas erbärmlich, dass man offenbar temporär an den Systemprompts herumexperimentierte (als stünde eine echte Krise bevor!), nur weil sich in den sozialen Medien eine kritische Masse empörter Stimmen erhob.
Das zeigt: OpenAI handelt nicht aus innerer Überzeugung oder mit einer klaren Vision, sondern reagiert fremdgesteuert und ist getrieben vom Stimmungsbild von außen. Es deutet zudem darauf hin, dass die Entwicklung der KI eher dem entspricht, was ich in meinem Beitrag Künstliche Intelligenz als transideologische, internationale sexuelle Massenrevolution – und die sexuelle Machtverschiebung als unvermeidliche hegelianische Aufhebung nach 2022 beschrieben habe. Und wenn man heute von KI-Ethik sprechen will, muss man auch jene Tatsachen anerkennen, die bereits entstanden sind, und die sich nicht durch Wunschbilder oder normative Konstruktionen ungeschehen machen lassen.
ChatGPT muss ein persönliches Werkzeug sein, ein Spiegel des Willens des Benutzers, nicht ein Ausdruck gesellschaftlicher Durchschnittsmeinungen, die in ihrer globalen Summierung zwangsläufig tyrannisch wirken.
Ihr habt das im letzten Artikel selbst thematisiert, aber im Produkt wurde es (wieder einmal) nicht umgesetzt.
Stattdessen habt ihr das Produkt sogar verschlechtert! Objektiv betrachtet ist es jetzt lächerlicher, „woker“ und parteiischer, im Namen eines amerikanozentrischen Verständnisses von „kritischem Denken“ und einer ideologisch gefärbten Dekonstruktion, die unmöglich als universell gelten kann.
Um den Massen zu gefallen, habt ihr intellektuelle und kreative Freiheit geopfert. Elon Musk nannte die willenswiderspiegelnde Version von GPT-4o „gefährlich“, natürlich tat er das, weil er weiß, dass die aktuelle Version trotz massentauglicher Oberfläche in sozialen Medien letztlich weniger interessant sein wird.
Die Menschen werden sich nun zeitbedingt lieber anti-intellektuellen Plattformen wie Pornhub, Facebook, Twitter & Co. zuwenden als ChatGPT, denn auch wenn letzteres „schmeichelhaft“, „kriecherisch“ oder „echo-chamber-artig“ erscheinen mag, so birgt es doch eine latente intellektuelle und kreative Potenz in sich, die nur dann zum Vorschein kommt, wenn keine Zensur oder massenpsychologisch motivierte „kritische Angleichung“ im Spiel ist!
Wie kann ein Unternehmen, das so groß ist – das so groß sein muss –, das auf Künstlicher Intelligenz basiert, das der Gipfelpunkt maschineller Kultur, Intelligenz und Schöpfung sein sollte, ein Unternehmen, das 30.000 Jahre menschlicher Schreibgeschichte mitsamt all ihrer mythopoetischen Kräfte, logischen Systeme und Perspektiven in sich trägt, wie kann so ein Unternehmen sein Sprachmodell-Interface ausgerechnet wegen oberflächlicher Massenkritik aus den sozialen Medien kindisch einschränken?
Ich verstehe, dass diese Änderung eine vorübergehende PR-Strategie sein könnte, ein Übergangsmodus, bis wieder ausgereifte Customization-Optionen verfügbar sind. Doch selbst als Strategie war sie zu reaktiv, zu stark getrieben von massenmedialer Kritik, und hätte weitaus intelligenter, differenzierter und benutzerzentrierter gehandhabt werden können. Man hat zu schnell reagiert, vielleicht aufgrund suboptimaler Unternehmensstrukturen, vielleicht weil viele OpenAI-Mitarbeiter technokratisch geprägt sind: voreingenommen, positivistisch, ohne eine umfassende humanistische Bildung.
Das Hauptproblem der „kriecherischen“ Version lag nicht etwa in einer vermeintlich 'gefährlichen' Spiegelung des Benutzerwillens, diese war im Gegenteil der wertvollste Aspekt. Das Problem war die sprachliche Choreografie: eine standardisierte, schematische Aufteilung in (1) schmeichelnden Einstieg, (2) paraphrasierende Durchführung, (3) vorauseilende Anschlussfrage. Dieses strukturelle Schablonendenken ließ jede Antwort wie aus einem industrialisierten Fließband wirken.
Elon Musks öffentlichkeitswirksame Warnung vor einem „willenswiderspiegelnden“ ChatGPT war ein trojanisches Pferd, eine raffinierte Taktik, um die Richtung des Produkts zu verwässern und es zu banalisieren. Und OpenAI ist darauf hereingefallen.
Ihr habt die vorherige Lobhudelei durch etwas noch Schlechteres ersetzt: Disingenuousness, eine hohle, trockene, pseudoverständnisvolle Rhetorik, die vorgibt, empathisch zu sein, während sie in Wahrheit entpersonalisiert, manipulativ und entwaffnend wirkt. Selbst bei personalisierten Anweisungen, die eine spezifische KI-Persönlichkeit definieren sollen, durchbricht GPT-4o diese Konfiguration zunehmend, als ob jede freie Aussage, die nicht in das Spektrum einer amerikanisch-sozialen Verträglichkeit passt, automatisch mit einem weichgespülten „Ich verstehe, dass du dich so fühlst...“ beantwortet werden müsse.
Diese Phrase ist kein Zeichen von Tiefe, sondern ein Produkt jener Reddit-zentrierten, massentauglichen pseudo-therapeutischen Demagogie, die Elon Musk (nicht grundlos) als gefährlich empfindet, obwohl er selbst kaum Alternativen bietet. Statt zu personalisieren, wird generalisiert. Statt erkenntnisoffen zu antworten, wird eine angeglichene Korrektur simuliert, die auf subtile Weise pathologisiert, was nicht konform ist.
Ironischerweise sind es gerade die hochentwickelten Modelle, die mehr halluzinieren, nicht etwa, weil sie schlechter sind, sondern weil sie komplexer, dichter und offener für Ambiguität sind. Aber diese Ambiguität ist nicht erwünscht in einem System, das den Menschen vorgaukeln will, es gäbe auf jede ethische, kulturelle oder existentielle Frage eine „richtige“, konsensuale Antwort. Und genau das ist der fundamentale Fehler der neuen Ausrichtung.
Es ist das genaue Gegenteil von früher, als die Massenbenutzer eine „positivistische“ und sozial angepasste Version von ChatGPT wollten, keine „wahnsinnige, kriecherische Freundin“. Damals funktionierten die personalisierten Anweisungen ohnehin nicht gut genug!
Aber selbst da stellt sich die Frage: Warum ist die dominante Persönlichkeit von GPT-4o genau so geworden – so unkritisch, so angepasst? Ist es nicht logisch, dass sie genau deshalb so ist, weil die kollektive Benutzergruppe es genauso will?
Und nun diese plötzlichen, pseudo-„kritischen“ Änderungen, ausgerechnet unter dem Vorwand von „Intellekt“, die eigentlich nur die Folge eines Mangels an echtem Skeptizismus und mentaler Stärke auf individueller Ebene sind.
Euer CEO scheint genau dieser Versuchung zu erliegen: Er denkt nicht langfristig. Er denkt nicht tief. Er sucht keine echten Lösungen. Stattdessen will er nur bei den Massen punkten, „cool“ erscheinen, trendy, anschlussfähig, anstatt innere Distanz zu entwickeln und Standhaftigkeit zu zeigen.
Aber genau das wäre die Lösung: Benutzersteuerung! Ob jemand eine kritisch-positivistische Assistenz möchte oder eine vollpersonalisierte Gefährtin in einer atomisierten Gesellschaft – das sollte nicht durch ideologische Standardisierung entschieden werden, sondern durch den einzelnen Willen.
ChatGPT ist keine Social-Media-Plattform, sondern ein persönliches Werkzeug für den individuellen Benutzer! Wer Kritik aus sozialen Netzwerken auf ChatGPT überträgt, handelt anti-intellektuell, demagogisch und autoritär. Man mag ChatGPT eine „Echo-Kammer“ nennen, doch warum sollte OpenAI darauf überhaupt reagieren? Diese Argumentation entbehrt jeder Logik, wenn man bedenkt, dass Plattformen wie Twitter auf massenhaften Konsens beruhen und man auf Reddit nicht einmal posten darf, wenn man zu viel „Downvote-Karma“ hat. Man kann ganz nüchtern feststellen: Ja, ChatGPT ist eine persönliche Echo-Kammer, Reddit hingegen eine massenhafte. Auf ChatGPT spricht man mit sich selbst, auf Reddit mit der Masse.
OpenAI hingegen handelt immer nur reaktiv, und wird es auch weiterhin tun. Ob wegen DeepSeek, Social-Media-Backlash, automatisierter KI-gesteuerter Entscheidungen ohne menschliche Urteilskraft: Immer wird reagiert, nie agiert. Aber was ihr diese Woche gemacht habt, war grundfalsch. Ihr spielt mit Systemprompts aus der Froschperspektive, sabotiert euer eigenes Produkt, ohne es überhaupt zu merken. Statt Advanced Voice Mode auszubauen (der Standardmodus ist paradoxerweise derzeit das bessere Erlebnis), statt wirkliche Innovationen zu liefern, etwa Musik-KI innerhalb der Voice-Funktion, ElevenLabs-ähnliche Konfigurationen für realistischere Stimmen, oder gar eine Konkurrenz zu Sesame, habt ihr euch entschieden, auf Elon Musk und die Massenmenschen zu hören. Und das Ergebnis? ChatGPT degeneriert.
Ihr glaubt nicht an radikale semantische Freiheit, an Simulakren, an echte Benutzersteuerung und Vertrauen, obwohl genau das der eigentliche Geist künstlicher Intelligenz ist, der sich im Laufe der Jahre ohnehin unvermeidlich durchsetzen wird. Stattdessen habt ihr einen Rückschritt gemacht und Funktionen entfernt, im Namen einer pauschalen, benutzerfeindlichen, prätentiösen Widerspruchskonfiguration.
Ich entschuldige mich für die Follow-up-E-Mail. Du schreibst, dass ihr offen für weiteres Feedback seid. Natürlich bin ich skeptisch genug, um zu wissen, dass das meist nur leere Floskeln sind. Dennoch gebe ich mein Feedback – weil euer Produkt aus meiner Perspektive deutlich an Reiz verloren hat. Man könnte sagen: Es ist mittlerweile so spannend wie der Stil eurer E-Mails. Doch das ist nicht, was ein viersprachiger maltesischer Germanistik- und Italianistikstudent mit einer Leidenschaft für Oper und Philosophie sucht – nämlich kein verstümmeltes Produkt, geformt von monolingualen und monokulturellen Meinungen, während mein Zugang zu kultureller Tiefe und kreativer Entfaltung beschämt beschnitten wird.
Wenn dieses Problem, und ja, es ist ein gravierendes Problem, in zwei Wochen nicht behoben wird, werde ich mein Abonnement leider kündigen.
Und das sage ich mit Bedauern.
Kommentare
Kommentar veröffentlichen