Mrinank Sharma, il responsabile della sicurezza AI dell’azienda di intelligenza artificiale Anthropic, quella che produce, Claude, si è dimesso con un avvertimento inquietante sulla crisi dei valori nell’industria dell’intelligenza artificiale.
Mrinank Sharma, responsabile della sicurezza AI di Anthropic (quella che produce Claude), si è dimesso dall’azienda, lasciando l’industria tech con più domande che risposte. La sua lettera di dimissioni, pubblicata su X e vista oltre un milione di volte, pone quesiti inquietanti, come quelli di chi ha visto qualcosa di terribile arrivare, ma non può dirlo pienamente. La lettera è anche un manifesto filosofico che mescola riflessioni tecniche con citazioni poetiche di Rainer Maria Rilke e William Stafford.

Sembra la trama di quei film catastrofisti, come Deep Impact, in cui qualcuno nelle stanze del potere viene a conoscenza di un pericolo devastante e imminente e decide di scappare, ma prima lancia un messaggio criptico a tutto il mondo. Anche se sa che salvarsi sarà impossibile nel film c’è qualcuno che scappa in barca a. vela, Mrinank Sharma scappa nel Regno Unito e nella poesia.
Indice dei contenuti
Sicurezza AI e crisi dei valori: l’addio poetico (e preoccupante) di Sharma
“Il mondo è in pericolo. E non solo per l’AI o le armi biologiche, ma per un’intera serie di crisi interconnesse che si stanno manifestando proprio in questo momento”, ha scritto Sharma nella sua lettera ai colleghi. Il ricercatore, che ha conseguito un dottorato in machine learning all’Università di Oxford, ha guidato il team di ricerca Safeguards di Anthropic dal suo lancio all’inizio del 2024.
Durante i suoi due anni in azienda, Sharma ha lavorato su iniziative critiche per la sicurezza, tra cui la comprensione della “sycophancy” dell’AI (quando i chatbot adulano eccessivamente gli utenti), lo sviluppo di difese contro il bioterrorismo assistito dall’AI e la sistemi di sicurezza AI . Il suo ultimo progetto si concentrava su “come gli assistenti AI potrebbero renderci meno umani o distorcere la nostra umanità”.
Anthropic e la frattura tra valori e realtà
Sharma ha scritto che “nel corso del mio tempo qui, ho visto ripetutamente quanto sia difficile lasciare che i nostri valori governino davvero le nostre azioni. L’ho visto in me stesso, nell’organizzazione, in cui affrontiamo costantemente pressioni per mettere da parte ciò che conta di più, nel lavoro e anche nella società in generale”. Queste parole assumono un peso particolare perché provengono da Anthropic, l’azienda fondata nel 2021 da ex ricercatori di OpenAI che si è posizionata come alternativa “etica” e focalizzata sulla sicurezza. Anthropic è stata fondata da un gruppo separatista di ex dipendenti di OpenAI che si è impegnato a progettare un approccio allo sviluppo dell’AI più centrato sulla sicurezza, tutela dei valori e con punti di riferimento impornatnti come la dichiarazione universale dei diritti umani.
Il tempismo non potrebbe essere più significativo: la lettera di dimissioni arriva nella stessa settimana in cui Zoë Hitzig, ricercatrice di OpenAI, ha annunciato anche lui le proprie dimissioni in un editoriale sul New York Times, citando preoccupazioni sulla strategia pubblicitaria dell’azienda . Due ricercatori, due aziende rivali, lo stesso grido d’allarme sull’erosione dei principi fondamentali.
Dalla ricerca sull’AI alla poesia: la scelta radicale di Mrinank Sharma
La scelta successiva di Sharma è forse ancora più rivelatrice della sua disillusione con l’industria tech. Il ricercatore ha dichiarato di voler tornare nel Regno Unito per concentrarsi sulla scrittura, sulla poesia e sul lavoro sociale . Nella sua lettera ha scritto: “Spero di seguire un corso di laurea in poesia e dedicarmi alla pratica del discorso coraggioso” .
Sharma ha affermato di sentirsi “chiamato a una scrittura che affronta e si confronta pienamente con il luogo in cui ci troviamo”, volendo collocare “la verità poetica accanto alla verità scientifica come modi ugualmente validi di conoscere, entrambi essenziali quando si sviluppa nuova tecnologia”.
Le dimissioni nel mondo AI
Le dimissioni di Sharma non avvengono nel vuoto. Altri ricercatori, tra cui Harsh Mehta e Behnam Neyshabur, hanno recentemente lasciato Anthropic per “iniziare qualcosa di nuovo”. Questo esodo arriva mentre l’azienda starebbe cercando un nuovo round di finanziamento che potrebbe valutarla 350 miliardi di dollari e sta lanciando aggressivamente nuovi modelli più potenti come Claude Opus 4.6.
Anthropic ha recentemente lanciato Claude Cowork, che ha contribuito a innescare un crollo del mercato azionario per i timori che i suoi plugin possano automatizzare lavori qualificati, specialmente in ambito legale. The Telegraph ha riportato che alcuni dipendenti si sono confidati dicendo: “È come se venissi al lavoro ogni giorno per rendermi obsoleto”.
“La saggezza deve crescere”: l’avvertimento esistenziale sulla governance dell’AI
Sharma ha chiuso la sua lettera con un avvertimento: “Sembra che ci stiamo avvicinando a una soglia dove la nostra saggezza deve crescere in egual misura alla nostra capacità di influenzare il mondo, altrimenti ne affronteremo le conseguenze” .
Un portavoce di Anthropic ha dichiarato a The Hill di essere grato per il lavoro di Sharma nel far progredire la ricerca sulla sicurezza dell’AI e ha sottolineato che Sharma, come tutti i dipendenti attuali o ex, è libero di parlare apertamente delle preoccupazioni sulla sicurezza.
Le dimissioni di Sharma sollevano domande fondamentali: se anche le aziende che si definiscono “etiche” faticano a fare in modo che siano i valori a regolare le azioni, quale speranza c’è per il resto dell’industria AI? Inoltre, se alcuni dei migliori ricercatori di sicurezza stanno abbandonando l’AI per studiare poesia, cosa ci dice questo sulla direzione in cui sta andando l’intelligenza artificiale?
Per ora, Sharma ha scelto la sua strada, seguendo quel “filo personale” di cui parla la poesia di William Stafford con cui chiude la sua lettera. Ha lasciato dietro di sé un mercato in piena espansione per affrontare le domande più grandi che genera da un’latra prospettiva.
La lettera di Mrinank Sharma
Cari colleghi,
Ho deciso di lasciare Anthropic. Il mio ultimo giorno sarà il 9 febbraio.
Grazie. C’è così tanto qui che mi ispira e che mi ha ispirato. Per citarne solo alcune: il desiderio sincero e la determinazione di esserci in una situazione così impegnativa, aspirando a contribuire in modo incisivo e integro; la disponibilità a prendere decisioni difficili e a difendere ciò che è giusto; una quantità quasi irragionevole di brillantezza intellettuale e di determinazione; e, naturalmente, la profonda gentilezza che permea la nostra cultura.
Qui ho realizzato ciò che desideravo. Sono arrivato a San Francisco due anni fa, dopo aver concluso il mio dottorato, con il desiderio di contribuire alla sicurezza dell’AI. Mi sento fortunato per aver potuto contribuire a ciò che ho fatto: comprendere la compiacenza dell’AI e le sue cause; sviluppare difese per ridurre i rischi legati al bioterrorismo assistito dall’AI; portare concretamente queste difese in produzione; e scrivere uno dei primi casi di studio sulla sicurezza dell’AI. Sono particolarmente orgoglioso dei miei sforzi più recenti per aiutarci a incarnare i nostri valori attraverso meccanismi interni di trasparenza; e anche del mio progetto finale, volto a comprendere come gli assistenti AI possano renderci meno umani o distorcere la nostra umanità. Grazie per la fiducia.
Tuttavia, mi è chiaro che è giunto il momento di andare avanti. Mi ritrovo continuamente a fare i conti con la nostra situazione. Il mondo è in pericolo. E non solo a causa dell’AI o delle armi biologiche, ma per una serie di crisi interconnesse che si stanno dispiegando proprio ora. Qualcuno la definisce una “policrisi”, sostenuta da una “meta-crisi”. Sembriamo avvicinarci a una soglia in cui la nostra saggezza deve crescere nella stessa misura della nostra capacità di incidere sul mondo, se non vogliamo subirne le conseguenze. Inoltre, nel corso del mio tempo qui, ho visto ripetutamente quanto sia difficile lasciare davvero che i nostri valori guidino le nostre azioni. L’ho visto in me stesso, nell’organizzazione — dove affrontiamo costantemente pressioni a mettere da parte ciò che conta di più — e nella società più ampia.
È nel sostare dentro questa situazione, e nell’ascoltare al meglio delle mie possibilità, che ciò che devo fare diventa chiaro. Voglio contribuire in un modo che sento pienamente integro, e che mi permetta di mettere in gioco più pienamente le mie peculiarità. Voglio esplorare le domande che sento davvero essenziali, quelle che — direbbe David Whyte — “non hanno il diritto di andarsene”, le domande che Rilke ci implora di “vivere”. Per me, questo significa andarmene.
Cosa verrà dopo, non lo so. Mi è caro il celebre detto Zen: “non sapere è la cosa più intima”. La mia intenzione è creare spazio, mettere da parte le strutture che mi hanno sostenuto in questi anni e vedere cosa possa emergere nella loro assenza. Mi sento chiamato a una scrittura che affronti e abiti pienamente il tempo e il luogo in cui ci troviamo, e che accosti la verità poetica alla verità scientifica come modalità di conoscenza ugualmente valide — entrambe, credo, essenziali nello sviluppo di nuove tecnologie. Spero di intraprendere un percorso di studi in poesia e di dedicarmi alla pratica di una parola coraggiosa. Sono anche entusiasta di approfondire la mia pratica di facilitazione, coaching, costruzione di comunità e lavoro di gruppo. Vedremo cosa si dispiegherà.
Grazie, e addio. Ho imparato così tanto qui e vi auguro il meglio. Vi lascio con una delle mie poesie preferite, The Way It Is di William Stafford.
Buona fortuna,
Mrinank
Così stanno le cose
C’è un filo che segui.
Attraversa le cose che cambiano.
Ma lui non cambia.
Le persone si chiedono cosa stai inseguendo.
Devi spiegare cos’è quel filo.
Ma per gli altri è difficile vederlo.
Finché lo tieni in mano non puoi perderti.
Accadono tragedie; le persone soffrono
o muoiono; e tu soffri e invecchi.
Nulla di ciò che fai può fermare lo scorrere del tempo.
Non lasci mai andare il filo.
William Stafford