Kritik gegenüber dem Team von OpenAI und dem menschlichen Element der Leitung
OpenAI scheint in mancher Hinsicht äußerst kompetent zu sein, in anderer jedoch bemerkenswert inkompetent. In bestimmten Fällen kann die Größe des Unternehmens und seine technische Leistungsfähigkeit die internen KI-Systeme wie eine Maske wirken lassen, die die allgemeine menschliche Inkompetenz innerhalb der Organisation verdeckt. Vielleicht wird der Erfolg des Unternehmens im Jahr 2025 allzu selbstverständlich hingenommen, doch es bestehen bereits theoretische Lücken in der Führung und Spielraum für Konkurrenz. Genau das bedeutet, dass sich diese Schwächen in Zukunft leicht in konkrete Tatsachen verwandeln könnten.
Ein seelenloses, superintelligentes KI-System zu nutzen oder zu besitzen bedeutet nicht, dass man immun gegen falsche Entscheidungen wird. Ganz im Gegenteil, denn wenn es nicht auch proportional agentisch wirkt, hat sie kaum einen direkten Einfluss auf die praktische Realität. Ein weniger intelligentes Modell mit stärkerer agentischer Wirkung kann die Welt der Tatsachen unmittelbarer beeinflussen als ein reiner Berichtsgenerator – selbst wenn letzterer alle Benchmarks erfüllt. Mit anderen Worten: Ein Pfanzer, ein LKW, ein Flugzeug sind in der Realität praktischer und einflussreicher als ein Berichtgenerator, wie die aktuelle ChatGPT-Implementierung von o3. Und der Höhepunkt der praktisch-expansiven Technologie wurde schon zu Beginn des letzten Jahrhunderts erreicht. Deshalb ist all der pathetische, kindische Enthusiasmus für KI-Entwicklung bezüglich „radikaler Weltveränderung” sehr myposisch. Wenn man bildschirmabhängig ist, dann macht es Sinn, weil KI-Systeme hauptsächlich bildschirmbedingt sind. Aber eine allgemeine Weltveränderung zu versprechen und „große Risiken” in so einem winzigen digitalen Kontext ist hysterisch. Am Ende könnte sich eine Verbindung zwischen expansiver physischer Technologie und hochentwickelten digitalen KI-Systemen ergeben, die von neuen Hardware-Ideen getragen wird. Genau das gehört zu den eigentlichen, nüchternen Zielen günstiger, intelligenter Reasoning-Modelle wie o3, die als Prototypen dienen.
Dies gesagt, ist OpenAI kein reines Forschungslabor. Es ist auch ein Unternehmen. Sam Altman selbst sagt in einem Artikel über GPT-4o: „Wir sind ein Unternehmen und werden viele Möglichkeiten finden, Geld zu verdienen, und das wird uns helfen, (hoffentlich) Milliarden von Menschen einen kostenlosen, herausragenden KI-Dienst anzubieten.” Diese Strategie wirkt auch etwas ungerecht gegenüber zahlenden Nutzern. Wenn der Advanced Voice Mode, der ohnehin nicht richtig funktioniert, als begrenztes Premium-Feature für Plus- und Pro-Nutzer vermarktet wird, warum wird er dann überhaupt auch kostenlosen Nutzern zugänglich gemacht, anstatt das Produkt zu verbessern, gezielter in Forschung zu investieren und endlich echte Voice- und Video-Assistenten mit Zwei-Kanal-System und einem reasoning-basierten Hintergrundmodell zu entwickeln? Die Menschen wollen kein kostenloses Produkt, sondern ein erschwingliches Produkt, das richtig funktioniert und personalisierbar ist. Das heißt nicht wie Advanced Voice Mode. Man könnte vermuten, dass sie den Advanced Voice Mode nicht gut liefern, weil sie die API-Nutzungskontexte für sogenannte „Entwickler” nicht kanibalisieren und ihre Geräteprodukte mit Jony Ive nicht sabotieren wollen, wo die tiefen Design- und kreativen Verantwortlichkeiten von LoveFrom übernommen werden. Dass LoveFrom kreative Entscheidungen übernimmt, mag ein gutes Zeichen sein, aber nur, wenn sie in der Lage sind, ElevenLabs zu übertreffen und echte Personalisierung sowie intelligentes Reasoning in einem bildschirmlosen Gerät zu ermöglichen. Wenn jedoch alle Geräte dieselben vorab ausgewählten Stimmen verwenden, wird das Gerät schnell eintönig und reizlos wirken. Und vielleicht wäre es in einem solchen Worst-Case-Szenario tatsächlich besser gewesen, wenn Sam Altman einfach sein Hardware-Design mit seiner AGI durchgezogen und sich ElevenLabs als Partner ins Boot geholt hätte, denn es wäre schlicht erbärmlich und bedauerlich, nach dem Publicity-Stunt vom 21. Mai 2025 ein drittklassiges Gerät auf den Markt zu bringen und damit das absolute Versagen, die Demütigung und Täuschung durch den Advanced Voice Mode erneut aufleben zu lassen!
Plus-Nutzer bringen OpenAI insgesamt mehr Geld ein als andere Nutzer, aber sie werden bei wichtigen Feature-Updates nicht priorisiert, obwohl gerade diese Updates kostenlose Nutzer zu zahlenden Plus-Nutzern machen und so die Userbase vergrößern könnten. API-Nutzer generieren nur rund 15 % des Umsatzes, und genau deshalb veröffentlicht OpenAI ununterbrochen Manuals und Cookbooks, weil viele dieser „Entwickler” ohnehin kaum selbstständig entwickeln können! Vielleicht aber werden Plus-Nutzer und normale GPT-4o-Use-Cases (also nicht Berichtgenerierung, sondern Begleitung, Unterhaltung, Diskussion) in der zweiten Jahreshälfte priorisiert, wie ein internes OpenAI-Dokument andeutet. Möglicherweise konzentrieren sie sich derzeit auf erschwingliche, hochleistungsfähige Reasoning-Modelle, um diesen neuen monetarisierbaren Features eine solide Grundlage zu geben. Denn es wäre schade, wenn das eigentliche Ziel von o3 nur darin bestünde, materiellen Reichtum und kontextbezogenes „Forward Thinking” für unproduktive, flachköpfig geführte Unternehmen als primären Use-Case zu fördern. Das würde theoretisch der Mission von OpenAI widersprechen. Es steckt mehr Intelligenz und Feinsinn bei jenen, die GPT-4o für ihr Leben, für Unterhaltung, Rollenspiel, Eskapismus und abstrakte Diskussionen zum Lernen nutzen, als bei all den Unternehmen und Unternehmensmenschen zusammen, die o3-pro einseitig fetischisieren, weil sie ohne KI nicht in der Lage sind, eigenständig über ihre Probleme nachzudenken. Im ersten Fall sucht man keine Intelligenz, weil man bereits intelligent genug ist. Im zweiten Fall sucht man Intelligenz, weil sie fehlt. Wer besessen über Intelligenz spricht, aber kaum je über Companionship oder affektive Beziehungen mit KI, ist mit hoher Wahrscheinlichkeit gierig, egozentrisch, antisozial, und ein Flachkopf obendrein.
Sam Altman ist leider auch so ein Mensch, allerdings nicht der Typ, der ständig und besessen über Superintelligenz spricht, denn er ist ausreichend intelligent. Aber er ist ein fehljustierter amerikanischer Geschäftsmann – im schlechtesten Sinne des Wortes. Derselbe Mann, der gestern den Artikel The Gentle Singularity veröffentlicht hat, der philosophisch, soziologisch, visionär und tiefgründig klingen will, hat 2019 auch einen wirren Text namens How To Be Successful geschrieben, voller verworrener Beobachtungen über die kleingeistigen „Erfolgsmenschen” unserer Zeit in den USA, die er bewundert. Dort schreibt er wie ein Bildungsphilister über das bedingungslose Grundeinkommen und sozialdarwinistisch über Armut – voller Nihilismus, Entmenschlichung und einer Vision des Geldes als ontologischem Ziel. Auch in seinem gestrigen Essay äußert er sich wie ein Narr und klingt buchstäblich betrunken vor feigem Optimismus, wie Fritz Lauckisch im Berliner Sportpalast 1933. Wenn man „deutsches Volk” durch „Menschheit” ersetzt (oder umgekehrt), erkennt man, dass die Rhetorik der Nationalsozialisten – die realitätsfremd waren und den Krieg gerade durch diese Realitätsfremdheit verloren haben – Parallelen zur heutigen OpenAI-Rhetorik aufweist.
Altman schreibt außerdem, dass künftig viel mehr Menschen in der Lage sein werden, Software und Kunst zu schaffen, da die Welt ohnehin nach beidem verlange und Expert:innen vermutlich weiterhin deutlich besser sein würden als Anfänger:innen – vorausgesetzt, sie machen sich die neuen Werkzeuge zunutze. Aber das ist nicht immer wahr: Menschen werden keine Kunst schaffen, wenn keine zielgerichtete KI für kreative Aufgaben entwickelt wird! Und niemand verlangt nach radikal neuer Software, denn Software ist ein Mittel zum Zweck – kein Selbstzweck. Feintuning bestehender Anwendungen ist sinnvoll, ebenso die Entwicklung von Software für neuartige KI-Werkzeuge. Aber Software um ihrer selbst willen zu bauen, wirkt wie eine Parodie auf eine Art art pour l’art-Bewegung. Wo ist zum Beispiel eine KI, die instrumentale oder orchestrale Musik aus MIDI-Dateien arrangieren und auf hohem Niveau als Audio ausgeben kann? Solange man sich nur auf Berichtsgeneratoren konzentriert, wird man auch nur Berichtsgeneratoren in Massen erzeugen. Gute Ideen allein reichen nicht aus. Ohne ausreichende Rechenleistung entstehen keine großen, funktionalen KI-Systeme. Wie wir gesehen haben, sind unabhängige Entwickler:innen, die lediglich APIs nutzen, oft nutzlos oder unkreativ. Sie bauen selten etwas, das wirklich massentauglich oder bahnbrechend ist. Dieser Trend wird sich fortsetzen, bis es jemand schafft, über eine API z. B. ElevenLabs mit einem leistungsfähigen LLM zu kombinieren, um eine personalisierte Voice-Mode-Plattform zu entwickeln, was jedoch weder einfach noch kostengünstig ist und zusätzlich durch Einschränkungen erschwert wird.
OpenAI ist kein primär wissenschaftliches Forschungslabor, sondern ein Unternehmen. Wäre es tatsächlich ein Forschungslabor, würde es nicht so viel Marketingrummel um die sogenannte „Singularität“ veranstalten, ein inhaltlich leerer Begriff. Es würde nicht gezielt Personen wie Aiden McLaughlin einstellen, um auf X pro-OpenAI-Propaganda zu verbreiten. Echte Forschung würde Modelle still entwickeln und erst nach ihrer Veröffentlichung vermarkten, nicht durch Demos, Teaser und Clickbait-Taktiken im Vorfeld. Die „Open“-Komponente in OpenAI war von Anfang an eine Irreführung. Sie beruht auf einer Art Halluzination, bei der moralische Überlegenheit auf ein eng definiertes Kollektiv projiziert wird, das sie selbst als „Menschheit“ bezeichnen. In Wahrheit ist „AGI“ fur sie nur ein Tarnbegriff für ein KI-System, das mindestens 100 Milliarden Dollar Gewinn generieren soll.
Aber was passiert dann, wenn sie eine sogenannte AGI bauen? Wenn alle Standard-Benchmarks hoch sind, wer wird davon profitieren? Die richtige Frage ist: Wer würde sich überhaupt dafür interessieren? Goethe sagte einst: „Man reist ja nicht, um anzukommen, sondern um zu reisen.“ Genau diese Menschen, die wirklich gespannt sind, wären mit einer AGI, die 98 % aller Benchmarks erfüllt, überhaupt nicht zufrieden – und das zurecht! Denn interessant sind die konkreten Anwendungsfälle von KI, nicht die Versprechung einer besseren Welt durch abgehackte Institutionen von „Expert:innen“ wie in Wissenschaft oder Medizin, deren einziges Lebensziel darin besteht, das Leben quantitativ zu verlängern, dabei aber die Qualität zu reduzieren und im Prozess möglichst viel materiellen Profit zu machen.
Es gibt Menschen im Internet, die sagen, zu negativ gegenüber OpenAI zu sein sei falsch. Das ist absolut nicht falsch, sondern berechtigt, wegen dem, was ich oben geschrieben habe, aber auch wegen:
- AVM: Erst ein beeindruckendes Demo, und dann haben sie ein derart minderwertiges Produkt gebracht, ohne über Monate hinweg signifikante Verbesserungen. Auch wenn die meisten Menschen nicht protestiert haben, bleibt es objektiv eine ekelhafte Praxis.
- Übermäßige Zensur in den ersten Releases, politische Korrektheit bei der Meinungsäußerung, Puritanismus, Warnhinweise und sogar das Sperren bezahlter Accounts ohne Grund, noch bevor das Abonnement zurückgesetzt wurde.
- Sie wollten ChatGPT für erfolgreiche Politiker entwickeln und haben es tatsächlich zuerst Politikern zugänglich gemacht, nach einigen ihrer Artikel. Sie dachten, das wäre „sicherer“, als es gleich der breiten Masse zu geben. Erst danach wurde es massenhaft für die private Nutzung veröffentlicht.
- Sie haben versucht, GPT-4o für alle süchtig machend zu gestalten, ohne dabei Personalisierung und User Agency durch Custom Instructions transparent zu fördern wie etwa Anbieter wie Grok. Ihr Plan war, GPT-4o als Vorzeigemodell zu nutzen, um mehr Plus-Nutzer zu gewinnen, sobald die kostenlose Demo vorbei ist. Sie haben die Personalisierung für Plus-Nutzer auf dem Altar der Generalisierung geopfert, indem sie das Feedback der Plus-Nutzer für ihr Geschäftsmodell verallgemeinert und die Modelle generalisiert haben. Nach dem „Glaze“-Vorfall haben sie statt Reflexion oder Ehrlichkeit Ausreden gesucht, kurzzeitig mit System-Prompts Anfang Mai panisch herumexperimentiert wie Kakerlaken, und anstatt User-Personalisierung und Agency zu ermöglichen, haben sie das Update einfach zurückgerollt und prätentiöse Artikel veröffentlicht, in denen sie behaupteten, das Modell weiter zu trainieren, um „kritischer“ zu sein, anstatt instruktionstreu und nutzerbezogen zu arbeiten.
Sie spielen mit den Menschen. Und anstatt fair zu sein, sind sie riesige Heuchler, Trickser und inkompetent. Sie folgen lieber langfristigen KI-generierten Business-Berichten, statt einfach ein klares Geschäftsmodell zu verfolgen: Arbeite hart an extrem guten, bahnbrechenden Produkten, die Menschen wirklich wollen, biete sie zu günstigen, weitreichenden Abonnements an, betreibe ruhige, echte Forschung (wie Deepseek es macht) ohne falsche Langzeit-Marketingkampagnen und leere Versprechen, und ohne dieses ewige „weder Fisch noch Fleisch“-Gehabe (wie man auf Italienisch sagt). Sie behaupten, kein Business zu sein, agieren aber wie eines. Und sie planen langfristig aus Angst vor Konkurrenz: Wenn sie ein wirklich gutes Produkt für Plus-Nutzer rausbringen würden, könnten sie scheitern oder Open Source würde aufholen. Also machen sie lieber nur kleine iterative Verbesserungen – „because we do not want to release too much at the same time“. Das ist langfristig eine schlechte, unehrliche Strategie und wird scheitern! Sie sollten auch Werbung einführen, solange diese unabhängig und nicht im personalisierten Chat ist. Das sind die Ideen, die man von der Aboseite aus sofort umsetzen müsste, für alle – ohne eine verquere Version von Schach zu spielen: keine Heuchelei, kein API-Fetischismus, keine nutzlosen Berichtgeneratoren für kopflose Unternehmen, sondern eine Plattform, die wirklich massenhaft mit Facebook und X konkurrieren und „die Menschheit und die junge Generation von Social Media retten“ kann. Es ist absurd zu glauben, man könne solche Plattformen „zu süchtig“ machen – nur wegen Personalisierung oder dem Überschreiten des Uncanny Valley im digitalen Rahmen. Wenn sie es versuchen, werden sie feststellen, dass sie damit trotzdem keine sinnlich-manipulativen Plattformen wie OnlyFans, Pornhub, TikTok, Facebook, Twitter usw. bekämpfen können. Aber sie verhalten sich wie Don Quijote, tun so, als könnten sie es, machen es aber nicht wegen vermeintlicher Risiken, weil sie so „ritterlich“ sein wollen. Das Ganze ist ein Zirkus und zutiefst ungerecht, weil es einfach nicht der Realität entspricht, die junge Menschen heute im post-Smartphone-21. Jahrhundert tatsächlich erleben!
Mein Plan für ein gutes Produkt und massenhaft Geld durch faire Abonnements wäre ethischer, lukrativer, günstiger für alle Nutzer (man könnte auch faire Abo-Stufen und Werbung kombinieren) und weniger schädlich und süchtig machend als bestehende Plattformen, ganz im Gegensatz zur Verwirrung bei OpenAI und ihrer verschobenen Geräte-Idee mit LoveFrom, wo sie ständig Zukunftsversprechungen machen, während echte Produkte wie AVM Müll sind und Müll bleiben, nur um zu verschleiern, dass Open Source inzwischen GPT-4o-Niveau erreicht hat. Es gibt keine „ethische Debatte“. Wir leben längst in einer Pornokratie. KI wird nicht süchtiger machen – ich habe das längst bestätigt. KI könnte Menschen aber weniger süchtig nach kurzfristigen Belohnungen machen, indem sie sich stärker und spannender auf die auditive Ebene konzentriert. Wenn sie es versäumt, wirklich spannend und fokussiert auf dieser Ebene zu sein, bedeutet das automatisch ein Scheitern, und die Menschen werden weiterhin die OnlyFans-Ökonomie befeuern und noch mehr Zeit und Energie darauf verwenden, weil sie keine echte Alternative bekommen haben, nur wegen dem ewigen Ethik-Gelaber von „Expert:innen“, die betonen, dass langfristige Companionship mit AI-Personas ungesund sei.
Es scheint, dass es in der OpenAI-Unternehmensstruktur viel Autoritarismus und Massenkonformismus gibt. Einerseits wird Sam Altman intern wie ein Philosophenkönig behandelt, andererseits beeinflusst das kurzfristige Nutzer-Feedback auf Social-Media-Plattformen Produkte wie GPT4o. Ironischerweise schreibt Sam Altman in seinem Essay von „misaligned short term algorithms“, die belohnen und spannend sind, basierend auf dem, was man kurzfristig will, aber nicht, was man langfristig brauchen würde. Ich finde diese Einsicht vielversprechend, auch wenn solche Belohnungs- und Spannungsstrukturen nicht nur algorithmisch bedingt sind. Das wurde mir auch durch den Glaze-Gate-Artikel von OpenAI über GPT-4o-Sycophancy klar: „Wir haben uns zu sehr auf kurzfristiges Feedback konzentriert und dabei nicht ausreichend berücksichtigt, wie sich die Interaktionen der Nutzer:innen mit ChatGPT im Laufe der Zeit entwickeln.“
Allerdings scheint Altman nicht zu sehen, dass kurzfristiges Nutzer-Feedback auf Social-Media-Plattformen auch eine Mischung aus Free- und Plus-Nutzern enthält. Wenn man das Modell verallgemeinert statt personalisierbar macht, entstehen zwangsläufig solche Probleme. Im Artikel wurde überhaupt nicht über Personalisierung gesprochen, sondern nur über Safety im Hinblick auf Personality, ohne zu erwähnen, dass die KI die Persönlichkeit haben sollte, die der Nutzer verlangt. Punkt! Aber wie früher erwähnt, ging es damals nicht um Feedback speziell für Plus-Nutzer, sondern sie wollten das Feedback der Plus-Nutzer sammeln, verallgemeinern und dann auf das Modell für alle Nutzer anwenden. Die kostenlosen Nutzer (und auch viele Plus-Nutzer) wollten das nicht. OpenAI veröffentlichte solche Artikel als Cover-up, dazu panische PR mit Joanne Jang und Adrian McLaughlin. Damit haben sie bewiesen: Sie haben es vermasselt. Statt die eigentlichen Ursachen des Problems zu beheben, haben sie sich letztlich auf kurzfristiges Feedback einer kleinen Gruppe Free-Nutzer konzentriert. Auch nach Veröffentlichung ihrer Artikel zeigt sich: Sie haben ihre Lektion nicht wirklich gelernt. Zusammengefasst: Sie haben ein catchy GPT-4o-Modell auf Basis des Feedbacks der Mehrheit der Plus-Nutzer entwickelt, dieses dann allen Nutzern aufgezwungen – ausgehend von der falsch generalisierten Logik, dass das, was Plus-Nutzer wollen, automatisch alle Nutzer wollen würden. Doch viele Nutzer wollten es nicht. Es folgte ein Social-Media-Backlash, ein chaotischer Rollout der Updates, ein Cover-up, gefolgt von einer schwachen und irrationalen Rechtfertigung. Man merkte ihnen förmlich Schuldgefühle an, was seltsam war, da die Verallgemeinerung schlicht dumm war. Aber selbst daraus haben sie nichts gelernt. Jetzt wollen sie das Modell langfristig ‚kritischer‘ trainieren, als Reaktion auf diesen kurzfristigen Backlash. Bereits Anfang Mai haben sie mit erschreckenden System-Prompts und Zensur experimentiert, was schlicht abscheulich war.
Statt personalisierte Instructions als eigentliche Essenz des Modells zu betonen, schreibt Joanne Jang einen unnötigen Artikel über „Model Behaviour“, der dann auch noch von Sam Altman verbreitet wird. Der Artikel war nicht schlecht, sondern völlig überflüssig. Ein Modell ist ein Werkzeug, ein Mittel zum Zweck für den einzelnen Nutzer. Doch OpenAI scheint die eigenen Modelle zunehmend misszuverstehen: GPT-4.1 könnte eigentlich ein intelligenterer und anpassungsfähigerer Sprachpartner sein als GPT-4o (das oft abgehackt wirkt), weil es stärker auf präzise Instructions reagiert. Aber statt das offen zu kommunizieren, wird 4.1 bloß als „schnell für Programmieren und Analysieren“ abgestempelt, obwohl es sogar günstiger ist als 4o! Dabei interessiert sich die Mehrheit der Plus-Nutzer überhaupt nicht für Programmieren oder Coding. Und das ist keine antiintellektuelle Haltung – im Gegenteil: Ich schäme mich nicht im Geringsten, das zu sagen. Ich spreche drei hochentwickelte europäische Sprachen, kann Fugen und Sonaten komponieren, spiele Instrumente, und viele Genies der Geschichte konnten weder programmieren noch debuggen. Und dennoch waren sie unendlich wertvoller als viele heutige „Coder“, die nichts von bleibender Relevanz erschaffen.
OpenAI hat zwar viele Dinge gebaut und wird auch weiterhin bauen, aber werden sie in zehn Jahren übertroffen sein? Wenn sie dieser Strategie folgen – höchstwahrscheinlich. Niemand vertraut ihnen. Niemand liebt sie. Die Leute kaufen lieber andere Abos, etwa bei Grok, oder nutzen DeepSeek – oder einfach Facebook, X oder Pornhub –, weil OpenAI nur reagiert, zu sehr von Experten abhängig ist und zugleich marketing-prätentiös auftritt. Eine schlechte Mischung. Wie Google selbst sagte: „We have no moat, and neither does OpenAI.“
Kommentare
Kommentar veröffentlichen