McLaughlin, Faust und die Illusion der Superphilosophie

Reasoning-Modelle haben als selbstzweckhafte Massenprodukte ihren Zenit erreicht.

Zu dieser Einsicht bin ich unabhängig gelangt, doch bemerkenswert ist, dass Aidan McLaughlin bereits im November 2024 in seinem Artikel The Problem with Reasoners eine ähnlich gelagerte Diagnose formulierte, frühzeitig und in bemerkenswert eloquenter Weise. Sein Beitrag ist ohne Zweifel lesenswert, enthält jedoch auch einige fragwürdige oder unzureichend begründete Thesen. Überdies mangelt es der Debatte um die Zukunft der KI an echter multidisziplinärer Tiefe, an kritischer Skepsis sowie an einer leitenden Reflexion, die sowohl historischen Sinn als auch zukunftsgerichtetes Denken miteinander verbindet.

McLaughlin zufolge sind Reasoner wie o1 in engen, verifizierbaren Aufgaben stark, aber sie zeigen außerhalb dieser Domänen kaum echte Denkfähigkeit. Ihre Leistung ähnelt weniger offenem Reasoning als einer konditionierten Generierung von Lösungsschritten. Und: Ohne gleichzeitiges Scaling der Modellgröße bleiben Reasoner limitiert.

Dass die Reasoning Modelle sehr spezialisiert sind, habe ich auch selbst in meinem Artikel Künstliche Intelligenz als transideologische, internationale sexuelle Massenrevolution – und die sexuelle Machtverschiebung als unvermeidliche hegelianische Aufhebung nach 2022 argumentiert, mit Bezug auf Goethes Zitat: „Vielleicht vermag nur der Genius den Genius ganz zu verstehen.”

Aidan McLaughlin: 

Wenn du kein Mathematiker oder Leetcode-Zauberer bist, interessieren dich wahrscheinlich viel mehr jene Bereiche, in denen es keine einfache Möglichkeit zur Verifikation gibt. Wenn wir nur bessere Reasoning-Modelle entwickeln, aber keine größeren Modelle bauen, wird KI für immer auf dem GPT-4-Niveau stecken bleiben, wenn es um Folgendes geht:

  1. Unternehmensstrategien entwickeln

  2. Einen verletzten Freund trösten

  3. Regierungen beraten

  4. Eine bahnbrechende philosophische Abhandlung schreiben

  5. In Startups investieren

  6. Ein Team führen

  7. Geniale Poesie schreiben

  8. Berufliche Ratschläge geben

  9. Gesellschaftliche Trends verstehen

  10. Feedback zu einem Aufsatz geben

Reasoning-Modelle als Entwicklung zur sogenannten allgemeinen Superintelligenz (ASI) stellen eine Art Vernunftschluss oder polysyllogistische Ratiocination im kantischen Sinne dar. Die Vorstellung, dass Superintelligenz über die menschliche Erfahrung hinausgehen könnte, ist irreführend und führt zur dialektischen Scheinwelt. Künstliche Intelligenz ist daher niemals konstitutiv, sondern stets regulativ. Dies gilt unabhängig von der Modellgröße und der Rechenleistung, da Wahrheit und Vernunft selbst nur regulative Größen sind. Tatsachen und Schicksal hingegen entspringen dem Sein und nicht dem Denken. Wenn McLaughlin in seinem Artikel also von einer Art universaler „Superhuman Philosophy” spricht, irrt er. In unserer Epoche ist keine abstrakt-materialistische Philosophie mehr möglich. Was bleibt, ist ein Realismus, ein Skeptizismus. Daher ist nur noch die geschichtsphilosophische Betrachtung als gültige Philosophie unserer Zeit denkbar, denn Wissen ist immer relativ und ambivalent. Es kann also keine „Superphilosophie“ oder „KI-Genialität“ geben, denn sowohl Philosophie als auch Genie sind geschichtlich geprägte Erscheinungen. Die gesamte Idee der „Singularität“ im Bereich des Wissens ist ein infantiler Mythos und ein bloßes Schlagwort. Zwar könnte es eine „Singularität“ im Bereich der Technik geben, nämlich dass die Technik den Menschen übertrifft, aber das wurde schon längst erreicht! Auch in Goethes „Faust“ sagt Mephistopheles: „Wenn ich sechs Hengste zahlen kann, sind ihre Kräfte nicht die meine? Ich renne zu und hin, ein rechter Mann, als hätt' ich vierundzwanzig Beine.“

Die Schlussfolgerung lautet also: Die LLM-Technologie ist als Massenprodukt mittlerweile ausgereift genug, um mutig und breitflächig eingesetzt zu werden. Auch wenn McLaughlin das Modell-Skalieren für bedeutsamer hält als den exklusiven Fokus auf Reasoning-Modelle, hat er im Kern recht – denn größere Modelle bringen nicht nur eine verbesserte Fähigkeit zur Kontextverarbeitung mit sich, sondern eröffnen auch neue Dimensionen der Nutzeranpassbarkeit. Dies ist besonders relevant im Hinblick auf das sogenannte „Glazing“-Problem, das Ende April 2025 diskutiert wurde. Die technologischen Anwendungen, die sich bereits heute abzeichnen, sind vielfältig. Ich sehe die Fähigkeit zur radikalen Personalisierung als ein zentrales Merkmal zukünftiger KI: Sie wirkt wie ein subtiles, intelligentes Panem et circenses für das Individuum – ein Mittel zur subjektiven Stabilisierung in einer politischen Weltlage, die sich vom demokratischen Konsens hin zu neuen, spenglerianisch gedeuteten Formen des Caesarismus bewegt. In diesem Kontext kann KI die Rolle einer verspiegelten Manifestation des individuellen Willens zur Macht einnehmen.

Was ebenfalls interessant wäre, ist, anstelle eines generischen „Reasoning„ über spezialisierte Themen individualisierte innere Monologe zu verwenden, maßgeschneidert für personalisierte Avatare, als eine Art Simulacrum des Unterbewusstseins. Solche Monologsysteme werden zweifellos eine zentrale Rolle für stimmgestützte Begleiter und KI-basierte Unterhaltung der Zukunft spielen.

Kommentare

Beliebte Posts aus diesem Blog

Pitch Snapshot – Neural Voice Fleshlight

Die radikal persönliche Zukunft der KI: Ein offener Brief an OpenAI