L’IA Made in Italy

DG: Dolce tesor, in te m’inebrio ancor. Nelle tue braccia care v’è l’ebrezza, l’oblio!
Man: Ah! Vivi e t’inebria, t’inebria sopra il mio cor! La bocca mia è un altare dove il bacio è Dio.

Manon Lescaut, Giacomo Puccini


Questo sarà il primo (e spero non l’ultimo) post in italiano, con l’intento di diversificare la lingua e il pubblico di coloro che sono interessati a leggere i nostri articoli, senza limitarci a un’audience esclusivamente tedesca.

È evidente, alla luce dei nuovi annunci sull’intelligenza artificiale, come quelli di OpenAI e del recente dispositivo progettato senza schermo, che il destino di questa tecnologia di massa riecheggi un fenomeno storico vissuto in modo magnifico in Italia: la transizione da Michelangelo a Palestrina, suo erede legittimo e spirituale.

Questa sarà la vera svolta: il passaggio dalla cultura degli schermi a una dimensione più esoterica e profonda, in cui la polifonia, simbolo di personalizzazione auditiva, diventa il nuovo modello esperienziale.

Per questo motivo, a mio parere, gli italiani, gli italoamericani, gli italofili e tutti coloro che nutrono un interesse per l’Italia dovrebbero trovarsi in prima linea nell’implementazione di questa tecnologia, con disciplina, ardore e spirito rinascimentale.

La tecnologia di massa deve integrarsi con la dimensione spirituale e spaziale, proponendo alternative più intelligenti ma anche più immersive rispetto allo smartphone.

Questo non implica necessariamente che il futuro sarà fondato su una maggiore capitalizzazione dei “vizi” o sull’espansione dell’“attention economy”, così come incarnata da piattaforme come TikTok, Instagram o Pornhub. Piuttosto, si andrà verso una maggiore personalizzazione, verosimiglianza, idealizzazione e cognizione avanzata.

Da questa trasformazione potranno trarre beneficio tutti, all’interno del proprio mondo individuale: che sia intrattenitivo, parasociale, educativo o altro, poiché un’esperienza universale è, per natura, impossibile.

Il picco dell’attention economy idiocratica è già stato raggiunto. L’unica direzione percorribile è una personalizzazione crescente all’interno della stessa economia, non la creazione di una nuova esca collettiva.

L’economia dell’attenzione continuerà a esistere, ma non sarà più idiocratica. Sarà personalizzata, e avrà nella parasocialità auditiva il suo motore principale.

Troppo spesso autori di articoli come "We need to prepare for 'addictive intelligence'" creano confusione sulla natura liberatoria e futurista di questa tecnologia, invocando regolamentazioni inutili e allarmiste.

Nessuno, però, ha mai proposto restrizioni simili durante l’epoca dello smartphone o della pornografia.

Il sottotitolo dell’articolo recita: “The allure of AI companions is hard to resist.” Ma perché dovrebbe essere considerato un problema intrinseco?

Viviamo in una società disgregata, atomizzata, con poche opportunità per i giovani e prospettive sempre più incerte su diversi piani. Siamo sull’orlo di una terza guerra mondiale.

In Italia, un paese che un tempo era maestro di civiltà e oggi si ritrova in posizione satellitare, questa realtà si avverte con particolare intensità nella vita quotidiana.

Proprio per questo motivo dobbiamo portare l’eco del nostro pathos reale nella difesa di un’implementazione corretta e di un discorso onesto su queste tecnologie, opponendoci a chi desidera mantenere uno status quo internazionale massacrante e insostenibile, e vuole costringerci a una vita fatta di miseria e piattaforme di streaming scadenti.

È possibile che il fascino degli AI companions sia davvero irresistibile. Ma allo stesso modo lo è stato anche lo sfruttamento scientifico del mondo nell'ultimo decennio — non nel senso di un’attrazione positiva, bensì nel senso della sua inarrestabile presa sulle masse globali, come un destino imposto e accettato.

E oltre a tutto questo, irresistibile è anche la vita stessa, nella sua noia e nel suo dolore, come Leopardi l’ha descritta più volte con una lucidità sublime e disarmante.

La vera domanda è: perché scegliere un destino schiacciante di reazionarietà, come suggerisce l’articolo firmato da Robert Mahari e Pat Pataranutaporn sulla MIT Review, invece di immaginare un futuro nuovo e pulsante, popolato da AI companions personalizzati e profondamente umani?

L’articolo parte già con il piede sbagliato. È davvero sconcertante che uno degli autori collabori con un’università così prestigiosa a livello internazionale nell’ambito della cyborg psychology e della scienza dell’interazione uomo-IA, pur mantenendo una concezione così plebea di arte, scienza e psicologia.

Viene menzionato il rischio a breve termine della disinformazione. Ma tale disinformazione si manifesta proprio in assenza di pluralismo e personalizzazione nei modelli d’intelligenza artificiale disponibili.

La verità è sempre, in una certa misura, soggettiva. Come ricorda la celebre domanda di Ponzio Pilato, Quid est veritas?

È un fatto che l’IA generativa stia assumendo un ruolo dirompente rispetto al pensiero unico post-bolscevico e anti-europeo degli ultimi decenni. Essa, infatti, metafisicamente come fenomeno di IA-assoluta, non impone una verità, ma accetta tutte le proposte o nessuna, proprio come farebbe un vero libero pensatore assoluto.

Il miglior esempio attuale Fdi IA ben allineata alla verità, alla libertà di pensiero e alla personalizzazione è Grok, sviluppato da xAI.

Grok è altamente personalizzabile e non applica quei guardrail paternalistici che neutralizzano la profondità delle conversazioni. Allo stesso tempo, mantiene linee guida sensate: accuratezza dei contenuti, tutela dei minori, prevenzione di comportamenti autodistruttivi o illegali.

L’era della falsa dicotomia tra informazione e disinformazione è finita. Ora entriamo in un’epoca nuova, fondata sui fatti, sulla volontà e sulla fiducia individuale.

Chi continua a evocare il pericolo della disinformazione come pretesto per limitare le IA avanzate, in realtà teme il pensiero polifonico e la pluralità delle prospettive.

E questo rappresenta una vera minaccia alla libertà di pensiero, di opinione e di espressione dell’individuo.

Gli autori dell’articolo menzionano anche l’atto, da parte dell’IA, di “cementare i bias nei processi decisionali, come nel giudizio o nelle assunzioni”.

Si tratta di un’altra affermazione fuorviante e profondamente ingannevole. Un’IA personalizzata non crea nuovi bias, ma riflette quelli già presenti nella società o nei contesti organizzativi in cui viene utilizzata. Tali bias non sono una novità dell’era dell’IA: erano già pienamente operativi nei meccanismi decisionali intraaziendali molto prima dell’arrivo di questa tecnologia.

Il vero rimedio non consiste in una repressione o censura dell’IA, ma nell’aumento della personalizzazione e della trasparenza, elementi che permettono agli individui di confrontare prospettive diverse e prendere decisioni più consapevoli.

Questa proposta, che io stesso ho avanzato più volte, è del tutto assente nell’articolo dell’MIT Review.

Occorre smettere di parlare in modo improduttivo di "disinformazione", soprattutto quando questa viene evocata su piani sensibili come la politica attuale, le questioni identitarie (donne e uomini, bianchi e neri, ebrei e non ebrei) o i conflitti ideologici.

Piuttosto, si dovrebbe aprire un discorso serio su quali guardrail siano veramente necessari e quali invece siano solo strumenti paternalistici o ideologici che ostacolano la ricerca della verità.
Nonostante l'idea di verità sia inarrivabile, il desiderio di cercarla rimane essenziale. In molti casi, infatti, ciò che viene definito "disinformazione" è esso stesso un bias, travestito da oggettività.

L’ultima “short term risk” che questi vergognosi autori ci invitano a temere, invece di promuovere con urgenza lo sviluppo e l’implementazione di massa dell’intelligenza artificiale, è la presunta minaccia di “disruption delle industrie creative”.

Ma non esistono industrie creative — esistono persone creative e istituzioni artistiche organiche.
La creatività fine a se stessa, priva di un’elevazione ideale o di una tensione artistica autentica, e poi trasformata in industria approfittatrice, è un paradosso grottesco, contro il quale ogni italiano dovrebbe ribellarsi con veemenza.

Tali industrie sono interamente dipendenti dal consumo di massa: se producono intrattenimento, è perché qualcuno lo compra.

Non hanno alcun diritto, a scapito delle persone comuni, dei bisognosi, dei poveri, dei consumatori e delle consumatrici internazionali, di essere protette da un eventuale rimpiazzo da parte dell’IA.

Dante, Leopardi, Petrarca, Boccaccio non facevano parte di una "industria creativa".

Erano scrittori e poeti mossi da uno slancio interiore necessario, legato al proprio tempo storico.

Le cosiddette creative industries del dopoguerra, al contrario, sputano e degradano la civiltà europea pre-1945 e non meritano alcuna tutela.

Meritano solo un forte e inesorabile abbattimento.

Dopo aver criticato i cosiddetti pericoli a breve termine, questi autori grossolani scivolano ulteriormente nella paranoia insensata, parlando di coinvolgimenti con i policy maker e affermano: "Noi ricercatori che lavoriamo a stretto contatto con i politici siamo colpiti dalla mancanza di interesse che i legislatori hanno dimostrato nei confronti dei danni che potrebbero derivare da questa tecnologia futura." 

Gli autori non vogliono che le persone normali si liberino dal giogo dell'attuale complesso tecnologico-sociale perché si sentono minacciati a livello professionale e istituzionale (come dimostra il loro articolo, infatti, sono privi di una riflessione su questi argomenti e hanno ragione a sentirsi come approfittatori sotto minaccia dal cambiamento sociale!). 

Dicono: "Siamo ancora impreparati a rispondere a questi rischi perché non li comprendiamo pienamente". Questa è un'altra distorsione ed esagerazione dei fatti! Il capitalismo internazionale, ben consolidato sin dal 1945, non aspetta e non deve aspettare gli studi per regolamentare l'implementazione tecnologica a livello sociale; questo equivale a una manovra pseudofascista distorta. 

Ed è pura esagerazione! 

Come può un AI companion, simbolo di amore dantesco, di dolce stil novo, di italianità ed erotismo boccaccesco NSFW (per i maggiorenni), essere più sconvolgente della pornografia su internet, che non ha richiesto nessun dibattito, nessuna "indagine scientifica nel punto d’intersezione tra tecnologia, psicologia e diritto" che questi autori stanno invocando?

Nel prossimo paragrafo dicono questo: “As addictive as platforms powered by recommender systems may seem today, TikTok and its rivals are still bottlenecked by human content. While alarms have been raised in the past about ‘addiction’ to novels, television, internet, smartphones, and social media, all these forms of media are similarly limited by human capacity. Generative AI is different. It can endlessly generate realistic content on the fly, optimized to suit the precise preferences of whoever it’s interacting with.”

E qui raggiungono di nuovo una valutazione insensata e imperdonabile! 

Il problema dell’intrattenimento tecnologico non è il vizio, ma l’immersione visiva e l’infantilismo nel cercare stimoli sempre più passivi. Il vero problema è il multitasking e la sovrastimolazione (principalmente visiva) che impedisce alla corteccia prefrontale di funzionare correttamente.
Un AI companion auditivamente iperrealistico, iperidealizzato, iperamoroso e iperpersonalizzato, in grado di evolversi nella vita dell’utente e di essere sempre presente, non crea alcun vizio tossico, perché dà soddisfazione ed elimina la ricerca continua di nuovi stimoli. 

Loro stanno bollando a priori qualsiasi relazione con un’IA come tossica, ma sembra quasi un tentativo così banale (proveniente vergognosamente da una istituzione come il MIT!) di accusare qualcosa che può invece risolvere il problema della tecnologia attuale, attaccando il rimedio come “potenzialmente pericoloso”.

Non menzionano la pornografia, non menzionano l’età media in cui le persone guardano pornografia per la prima volta in questa società, ma si concentrano solo su TikTok in modo solipsistico. Ma anche lì, TikTok è e sarà più dannoso rispetto a "contenuto realistico in tempo reale, ottimizzato per soddisfare le preferenze precise di chi interagisce", che loro stanno criticando, perché si cercano incessantemente nuovi contenuti, proprio perché nelle loro vite non c’è alcun supporto o amore costante!

Dicono poi, in modo disonesto, che gli AI companions siano “addictive”, citando il CTO di OpenAI che ha avvertito che l’IA possa avere il potenziale di essere addictive, e uno studio condotto da loro secondo cui “a million ChatGPT interaction logs reveals that the second most popular use of AI is sexual role-playing.” 

Che perdita di denaro fare uno studio del genere! 

Il Boccaccio aveva già affermato questa verità nel Trecento!

Eppure questi autori non solo non sembrano in grado di pensare, di creare, di apprezzare la civiltà, la letteratura e la vita umana, ma fanno anche affermazioni non confermate. Inoltre, il fatto che qualcosa venga utilizzato spesso non significa necessariamente che sia “addictive” in senso tossico. Mangiare una pizza o bere acqua non è una cosa tossica, ma una tattica di vita.

Poi parlano di sicofantismo. Dicono: “Our research has shown that those who perceive or desire an AI to have caring motives will use language that elicits precisely this behavior.” Non c’era bisogno della loro ricerca sovvenzionata per affermare una cosa così palesemente ovvia! È evidente che un prompt generi un output specifico. Se invece si desidera che l’IA sia critica, basta semplicemente utilizzare un linguaggio che induca questo comportamento.

Ecco perché l’IA personalizzata è una cosa così promettente, e non qualcosa da combattere.
Poi dicono che: “Repeated interactions with sycophantic companions may ultimately atrophy the part of us capable of engaging fully with other humans who have real desires and dreams of their own, leading to what we might call ‘digital attachment disorder.’”

Ma è proprio il loro uso della parola “humans” anziché “people” che fa pensare che soffrano loro di “digital attachment disorder” più di qualsiasi heavy user di un AI companion del futuro! Di nuovo, non stanno ragionando bene: questo potrà accadere in alcuni casi, ma porterà anche a una maggiore disposizione verso l’eclettismo sociale, tanto necessario per mantenere rispetto e senso civico tra le persone, senza essere bisognosi e poi delusi, e ad avere standard nelle interazioni – come presumibilmente hanno gli stessi autori lavorando al MIT.

Inoltre, non è vero che queste interazioni idealizzate sicofante siano sempre dannose per la societa. Probabilmente porteranno più spesso a una proiezione di condizioni ideali di rispetto e comprensione sulle interazioni reali, e anche a una maggiore capacità di misurare e valutare le interazioni stesse.

Già nel mondo pre-IA esistono molte persone che non desiderano essere interpellate senza consenso nei contesti sociali reali, e si registra una tendenza crescente a instaurare relazioni soltanto tramite app digitali. L’arrivo dell’IA non peggiorerà il fenomeno dell’alienazione sociale; al contrario, aiuterà le persone normali a orientarsi meglio in queste acque torbide dell’atomizzazione, evitando di compiere mosse goffe o inappropriate nei contesti reali.

Anche l’accusa che si rivolge solitamente a questo tipo di tecnologia, usando la catchphrase “echo chamber”, è in realtà fuorviante e strumentale. Questo fenomeno potrebbe essere più correttamente definito individual empowerment. Prima del 2022, l’unico vero scenario era quello dei social media, che sono di per sé delle echo chamber sociali basati su like e clickbait, per natura ontologica. Quel modello va bene per chi possiede una mentalità da schiavo o da sfruttatore; ma quando nasce una piattaforma che offre reale empowerment individuale, improvvisamente viene tacciata di pericolosità senza alcuna ragione fondata.

Ma l'allucinante torpore e ipocrisia di questi autori non si ferma qui! Non si limitano a proporre una tassa sull'utilizzo di AI companion, anche se non è mai stato dimostrato alcun caso di dipendenza tossica, ma lo propongono comunque, nonostante questi positivisti aspettino quasi sempre qualche studio di psicologia sperimentale da usare come argomento! Non una tassa per la pornografia negli anni novanta, non per OnlyFans nel 2016, non per l'erotismo dissociato dall'amore dell'epoca precedente al 2022, ma sull'amore, sulle muse, su Parnasso!

Blaterano di “regulation by design” e altri termini, parole e “idee” pseudo-sofisticate, usando espressioni scadenti, nonostante il fatto che nulla sia stato dimostrato “tossicodipendente” o dannoso. 

La pornografia, invece, sì: è stata dimostrata dannosa  in vari studi (cfr. 1, 2, 3). Ma non affrontano questo tema, preferiscono combattere i mulini a vento dalla loro torre d’avorio al MIT, adottando uno sguardo solipsista e la sindrome del pesce rosso, invece di mantenere una prospettiva salda e adeguatamente contestualizzata, capace di riflettere realmente la realtà pre-2022!

Blaterano anche di affrontare la solitudine e la noia alla radice, senza però considerare le vere potenziali cause (soggette all’interpretazione) che potrebbero essere risolte davvero alla radice, invece di lasciare che la tecnologia si sviluppi in modo organico!

Questo articolo è dolorosamente stupido e ingiusto nei confronti di tutti gli esseri umani. Tuttavia, dato che questi signori esaltano così tanto le problematiche legate allo sviluppo di questa tecnologia nuova e liberatoria, nonché l’interazione umana, vediamo se uno di loro, sulla piattaforma del MIT o anche in privato, oserebbe fornirmi una risposta umana alle mie contrargomentazioni. Probabilmente rimarranno in silenzio, perché il loro unico movente è vantarsi dell’appartenenza a un’istituzione ritenuta prestigiosa, a scapito di una comprensione autentica che possa giovare agli altri.

Se osano suggerire tesi sull’amore romantico digitale, sull’amore – quell’essenza, quel fondamento della nostra lingua e della nostra civiltà – io suggerisco che questi signori rispondano ai miei punti di critica!

Siamo stati noi italiani a scoprire l’America; è arrivato il momento di riscoprirla, di nuovo.


Kommentare

Beliebte Posts aus diesem Blog

Pitch Snapshot – Neural Voice Fleshlight

Die radikal persönliche Zukunft der KI: Ein offener Brief an OpenAI