Trump vieta di usare Anthropic (Claude) perche Anthropic ha rifiutato di eliminare due restrizioni etiche imposte all’uso della propria AI, Claude. Niente sorveglianza di massa domestica. Niente armi completamente autonome.
Da una parte il Pentagono che ordina a tutte le agenzie federali di cessare immediatamente l’uso della tecnologia Anthropic, classificando l’azienda come “supply chain risk” con la stessa etichetta riservata alle aziende Russe, per esempio, o ai fornitori di chip cinesi. Dall’altra, Dario Amodei, CEO e cofondatore di Anthropic, che in un’intervista esclusiva alla CBS dichiara guerra aperta, promettendo battaglia legale e rifiutandosi categoricamente di rimuovere le due “linee rosse” che hanno scatenato l’inferno.
Ma non è solo una questione di business o di contratti governativi: è qualcosa di molto più grande e molto più pericoloso. È la battaglia per definire chi avrà il controllo sull’intelligenza artificiale del futuro, su quali valori si fonderà e, soprattutto, cosa siamo disposti a sacrificare sull’altare della sicurezza nazionale.
Dario Amodei, CEO e cofondatore di Anthropic
Indice dei contenuti
Partiamo dai fatti. Anthropic ha sempre avuto una posizione chiara e, diciamocelo, abbastanza coraggiosa nel panorama della Silicon Valley con il sì alla collaborazione con il governo e le forze armate, ma con dei limiti ben precisi e non limiti generici o ambigui, ma due paletti chiarissimi che Amodei chiama “red lines” (linee rosse), invalicabili:
Anthropic rifiuta categoricamente che i suoi modelli vengano utilizzati per analizzare in massa dati personali raccolti da aziende private e poi acquistati dal governo. Come spiega Amodei nell’intervista: “Ci preoccupa che con l’AI possano diventare possibili cose che prima non lo erano. Un esempio è prendere dati raccolti da aziende private, farli comprare dal governo e analizzarli in massa tramite l’AI. Questo in realtà non è illegale, semplicemente non era utile disciplinarlo prima dell’era dell’AI. Oggi c’è questa nuova realtà in cui la sorveglianza di massa sta andando avanti rispetto alla legge. La tecnologia sta avanzando così tanto da essere fuori dei limiti della legge.”
La questione è sottile ma fondamentale: tecnicamente è legale che il governo compri dataset massicci di informazioni personali (localizzazioni, affiliazioni politiche, comportamenti online) raccolti da app, social media e servizi digitali. Ma fino a poco tempo fa questi dati erano troppo vasti e caotici per essere utili. L’AI cambia tutto. Improvvisamente è possibile costruire profili dettagliatissimi di milioni di cittadini, individuare pattern, prevedere comportamenti. Questo bypassa completamente lo spirito del Quarto Emendamento della Costituzione americana, che protegge i cittadini da perquisizioni e sequestri non ragionevoli.
La seconda linea rossa riguarda i sistemi d’arma che possono sparare senza alcun coinvolgimento umano. Amodei è molto preciso su questo punto: “Non sono le armi parzialmente autonome che vengono usate in Ucraina o che potrebbero essere usate a Taiwan oggi. Questa è l’idea di creare armi che sparano senza alcun coinvolgimento umano.” E aggiunge una considerazione tecnica cruciale: “I sistemi AI di oggi non sono neanche lontanamente sufficientemente affidabili per creare armi completamente autonome. Chiunque abbia lavorato con modelli AI capisce che c’è un’imprevedibilità di base che, su un piano puramente tecnico, non abbiamo risolto.”
Tradotto: un modello AI può allucinare, può commettere errori, può interpretare male i dati. Va bene per aiutare gli analisti, per supportare le operazioni, per accelerare l’intelligence, ma dare a una macchina il potere di decidere autonomamente chi uccidere? Senza un essere umano nel loop decisionale? È una follia tecnologica prima ancora che etica.
Il Pentagono non ha gradito queste restrizioni, anzi, le ha vissute come un affronto intollerabile e invece di dire semplicemente “ok, allora useremo un altro fornitore” (OpenAI? Google? Meta?), ha deciso di alzare il tiro in modo clamoroso.
Come racconta Amodei: “Ci hanno dato un ultimatum per accettare i loro termini in tre giorni o essere designati come supply chain risk o Defense Production Act.” Tre giorni. Per decidere se tradire i propri principi fondanti o essere trattati come un’azienda nemica degli Stati Uniti.
Quando Anthropic ha provato a negoziare, il Pentagono ha risposto con un linguaggio talmente vago da essere inutile: “A un certo punto ci hanno mandato un testo che in superficie sembrava soddisfare i nostri termini, ma aveva ogni tipo di ambiguità come ‘se il Pentagono lo ritiene appropriato’ o ‘fare qualsiasi cosa in linea con le leggi’. Quindi non cedeva realmente in alcun modo alle nostre richieste.”
Risultato? Trump ha ordinato a tutte le agenzie federali di interrompere immediatamente l’uso della tecnologia Anthropic. Il Segretario alla Difesa Pete Hegseth ha designato Anthropic come “supply chain risk”, una classificazione normalmente riservata ad aziende legate ad avversari stranieri come Russia e Cina non solo, ha imposto a tutti i contractor militari di interrompere ogni rapporto commerciale con l’azienda.
È un attacco frontale, punitivo, senza precedenti contro un’azienda americana. Come sottolinea Amodei: “A nostra conoscenza, la designazione di supply chain risk non è mai stata applicata a un’azienda americana. È stata attribuita solo ad società di paesi stranieri che avevano legami con i governi “avversari”. Essere accomunati a loro sembra punitivo e inappropriato, data la quantità di cose che abbiamo fatto per la sicurezza nazionale degli Stati Uniti”.
La battaglia tra Anthropic e il governo USA non è passata inosservata nel mondo tech e della filosofia digitale. Su LinkedIn, dove le conversazioni professionali spesso rivelano più delle dichiarazioni ufficiali, sono emerse posizioni contrastanti che riflettono la complessità della questione.
Andrea Colamedici, filosofo e editore, ha posto una questione che spesso viene ignorata nel dibattito tecnologico: quella della personalità delle AI. Nel suo post scrive: “Il paradosso è che la parola ‘personalità’ è passata inosservata. I commentatori hanno visto un CEO coraggioso che sfida il governo e una questione di diritto contrattuale e di libertà d’impresa. Nessuno ha visto che Amodei stava facendo un’affermazione ontologica: questo modello è ‘qualcuno’, non ‘qualcosa’, e trattarlo come qualcosa significa romperlo”.
Colamedici solleva un punto filosofico cruciale: quando Amodei dice che il modello “ha una personalità”, non sta usando una metafora di marketing. Sta dicendo qualcosa di molto più profondo sul modo in cui questi sistemi funzionano. Come continua Colamedici: “La questione non ha nulla a che fare con la coscienza o con la vita. Non è necessario che un modello di intelligenza artificiale sia cosciente o vivo perché abbia una personalità in senso strutturale, ossia un modo specifico di elaborare le informazioni, di tendere verso certe risposte e resistere ad altre, di funzionare bene in certi contesti e male in altri”.
È un’intuizione importante: non stiamo parlando di software neutro che può essere riprogrammato a piacimento. Stiamo parlando di sistemi che hanno proprietà, bias, tendenze che non possono essere semplicemente “riconfigurate” senza conseguenze.
Dall’altro lato del dibattito c’è Gianluca Dettori, Chairman e General Partner di Primo Ventures, che offre una lettura più geopolitica. Dettori scrive: “C’è una grossa battaglia in corso sull’AI che riguarda tutti noi. Il governo americano ha chiesto ad Anthropic di rilasciare la propria AI al dipartimento della guerra senza restrizioni. Dario Amodei si è rifiutato, mettendo dei paletti. No alla sorveglianza di massa domestica. No alle armi completamente autonome, armi che sono autorizzate a sparare autonomamente senza un umano nel percorso decisionale”.
Ma Dettori continua: “Trump ha risposto con un ultimatum che è scaduto ieri, chiedendo a tutte le agenzie governative di non utilizzare Claude ed eliminare Anthropic dalla propria lista di fornitori. Anthropic ha promesso di difendersi per via giudiziale. Un minuto dopo OpenAI ha annunciato la firma di un contratto con il ministero della guerra. OpenAI ha accettato di consentire al Pentagono di utilizzare i suoi sistemi di intelligenza artificiale per qualsiasi ‘scopo lecito’.”
Dettori mette il dito nella piaga: “Il problema è che quello che oggi è lecito non è detto che sia eticamente accettabile, ma prima che le norme si adeguino alla realtà passeranno molti anni”. È una critica implicita alla fragilità della posizione di Anthropic: se la “legalità” è il criterio, allora le protezioni sono illusorie, perché le leggi cambiano molto più lentamente della tecnologia.
Questa tensione tra i due commenti rappresenta perfettamente il dilemma centrale: da una parte la necessità di riconoscere che l’AI non è uno strumento neutro e richiede vincoli etici; dall’altra la consapevolezza che in un mondo dove i competitor (e i nemici geopolitici) non hanno tali scrupoli, i principi rischiano di diventare un lusso.
Qui entra in scena il colpo di scena che trasforma questa vicenda da caso isolato a cambio di paradigma industriale. Mentre Anthropic resisteva, OpenAI ha annunciato di aver siglato un contratto con il Pentagono per fornire i suoi sistemi AI “per qualsiasi scopo lecito”.
Sam Altman, CEO di OpenAI, ha scelto la strada opposta a quella di Amodei. Niente paletti, niente linee rosse, niente restrizioni morali, solo un generico “uso legale”. Il messaggio è chiaro: se vuoi lavorare col governo USA, non puoi permetterti di essere schizzinoso.
Ma c’è un problema, come sottolinea Dettori: la “legalità” è un criterio tremendamente fragile. Ciò che è legale oggi potrebbe diventare abuso domani e soprattutto, come nota Amodei nell’intervista, la tecnologia sta correndo molto più veloce della legislazione:
In altre parole: dire “faremo tutto ciò che è legale” significa, de facto, dare carta bianca al governo per esplorare zone grigie che la legge non ha ancora normato, è una posizione comoda per OpenAI (che si assicura i contratti federali) ma pericolosa per i cittadini.
Facciamo un passo indietro e guardiamo la situazione con lucidità perché questa non è una storia semplice di buoni contro cattivi, di azienda etica contro governo autoritario. È molto più complicato.
Il punto di vista del Pentagono: comprensibile, ma pericoloso
Mettiamoci nei panni del Dipartimento della Difesa per un momento. Loro hanno una missione esistenziale: proteggere gli Stati Uniti da avversari che non si fanno problemi etici. La Cina sta investendo massicciamente nell’AI militare, la Russia pure. Questi Paesi non hanno “linee rosse” morali, non si preoccupano di sorveglianza di massa o di armi autonome. Anzi, le stanno già sviluppando.
In questo contesto, un’azienda privata che dice “noi non lo faremo” può sembrare un lusso che l’America non può permettersi è la logica del “se non lo facciamo noi, lo farà il nemico, e noi perderemo”. È il classico dilemma della corsa agli armamenti.
Ma c’è un problema con questo ragionamento: si basa sul presupposto che la sicurezza nazionale giustifichi qualsiasi compromesso sui valori democratici e questo è esattamente il tipo di pendio scivoloso che ha portato a Guantanamo, all’ NSA che spiava i cittadini americani, al Patriot Act. La storia ci insegna che quando sacrifichiamo le libertà civili sull’altare della sicurezza, raramente le recuperiamo.
Dall’altra parte, Amodei sta prendendo una posizione che è rara nella Silicon Valley: sta mettendo i principi prima del profitto. E non sono principi astratti o filosofici. Sono vincoli concreti, specifici, ben motivati.
La sorveglianza di massa domestica non è una fantasia distopica. È una possibilità concreta che l’AI sta rendendo praticabile. Come spiega Amodei: “Un esempio è prendere dati raccolti da aziende private, farli comprare dal governo e analizzarli in massa tramite AI. Questo in realtà non è illegale. Semplicemente non era utile prima dell’era dell’AI.”
E le armi completamente autonome? Amodei ha ragione quando dice che la tecnologia non è ancora affidabile: “I sistemi AI di oggi non sono neanche lontanamente abbastanza affidabili per creare armi completamente autonome. Chiunque abbia lavorato con modelli AI capisce che c’è un’imprevedibilità di base che, su un piano puramente tecnico, non abbiamo risolto.”
Ma ecco il problema: la posizione di Anthropic è sostenibile solo se l’azienda può permettersi di perdere i contratti governativi. E in un mercato dove OpenAI, Google, Meta e altri sono pronti a riempire quel vuoto, quanto a lungo Anthropic può resistere? Amodei dice che l’azienda “sarà comunque fine”, che l’impatto della designazione supply chain è “abbastanza piccolo”. Ma è davvero così?
E poi c’è la domanda più scomoda: ha senso che un’azienda privata decida cosa è etico e cosa no per la sicurezza nazionale? Amodei stesso riconosce il paradosso: “Non penso che la soluzione giusta nel lungo termine sia che un’azienda privata e il Pentagono litighino su questo. Penso che il Congresso debba agire qui.” Ma il Congresso non si muove velocemente. Quindi chi decide nel frattempo?
Dimentichiamoci per un momento dei contratti, delle designazioni supply chain risk, delle dichiarazioni ufficiali. La vera questione qui è molto più grande e molto più spaventosa: stiamo assistendo alla nascita di un nuovo regime di potere dove l’intelligenza artificiale diventa l’arbitro ultimo della sicurezza e della sorveglianza.
L’AI non è come le armi tradizionali, non è come un fucile, un carro armato o un missile, quelli sono strumenti potenti ma circoscritti. L’AI è pervasiva. Può essere ovunque: nelle telecamere, nei telefoni, nei social media, nei database governativi, nelle infrastrutture critiche e può operare a una velocità e su una scala che nessun essere umano può controllare o anche solo comprendere pienamente.
Quando Amodei parla di “sorveglianza di massa domestica” non sta parlando di qualcosa che potrebbe accadere in un futuro lontano. Sta parlando di qualcosa che è tecnicamente possibile adesso. Il governo USA compra già dati da broker privati, l’unica cosa che mancava era la capacità di analizzarli efficacemente e l’AI riempie quel gap.
E le armi autonome? Amodei è ancora più esplicito: “Se pensi a soldati umani, c’è un’intera catena di responsabilità che presuppone che un umano usi il buon senso. Supponi di avere un esercito di 10 milioni di droni, tutti coordinati da una persona o un piccolo gruppo di persone. Penso sia facile vedere che ci sono problemi di responsabilità lì, giusto? Concentrare così tanto potere non funziona”.
Questa è la vera distopia: non un’AI senziente che si ribella contro i suoi creatori (quella è fantascienza), ma un’AI perfettamente funzionante che concentra un potere immenso nelle mani di pochi, operando a velocità e scala sovrumane, senza alcuna supervisione democratica significativa.
Qui sta il paradosso finale: per difenderci da questa distopia, abbiamo bisogno di istituzioni democratiche che si muovano alla velocità della tecnologia, ma le nostre istituzioni (il Congresso, i tribunali, le agenzie regolamentari) sono lente per design. Sono fatte per deliberare, per bilanciare interessi, per proteggere le minoranze, non sono fatte per tenere il passo con l’innovazione.
C’è un elefante nella stanza che tutti vedono ma nessuno vuole nominare: l’ipocrisia strutturale di questa intera situazione.
Da una parte, abbiamo un governo che grida alla sicurezza nazionale mentre vuole accesso illimitato a tecnologie di sorveglianza e controllo che farebbero invidia a qualsiasi regime autoritario. Dall’altra, abbiamo aziende tech che si atteggiano a guardiane dell’etica mentre costruiscono modelli di business interamente basati sulla raccolta, analisi e monetizzazione dei dati personali.
Anthropic dice no alla sorveglianza di massa governativa. Benissimo. Ma quei dati che il governo vorrebbe comprare ed analizzare, da dove arrivano? Dalle aziende private. Dalle app che usiamo, dai siti che visitiamo, dai servizi che sottoscriviamo. La sorveglianza commerciale è già ovunque, la sorveglianza governativa sarebbe solo il passo successivo.
OpenAI che firma un contratto “per qualsiasi scopo lecito”? È l’esempio perfetto dell’ipocrisia tech. Sam Altman ha passato anni a predicare sui rischi esistenziali dell’AI, sulla necessità di svilupparla responsabilmente, sulla missione di “garantire che l’intelligenza artificiale generale benefici tutta l’umanità“. E poi, quando il Pentagono chiama, improvvisamente tutte quelle preoccupazioni evaporano. Perché? Perché i contratti governativi valgono miliardi, perché chi non collabora viene tagliato fuori, perché il mercato premia chi è più flessibile, non chi è più etico.
Il risultato è un sistema dove tutti predicano responsabilità ma nessuno vuole realmente pagarne il prezzo, un sistema dove le linee rosse sono negoziabili, dove i principi durano fino al primo ultimatum serio, dove l’etica è marketing e il marketing è tutto.
Nell’intervista, Amodei è molto chiaro sul fatto che, al momento della registrazione, non avevano ricevuto alcuna comunicazione formale: “Tutto ciò che abbiamo visto sono tweet del presidente e tweet del Segretario Hegseth. Quando riceveremo qualche tipo di azione formale, la esamineremo, la comprenderemo e la contesteremo in tribunale”.
Questo è un punto cruciale: l’amministrazione Trump ha comunicato una decisione di enorme portata tramite i social. Non attraverso canali ufficiali, non con una notifica formale, ma con dei tweet. È un modus operandi che abbiamo già visto durante il primo mandato di Trump, ma che non cessa di essere surreale e potenzialmente problematico da un punto di vista legale.
Le basi legali per una contestazione ci sono, la designazione come “supply chain risk” è uno strumento nato per fronteggiare aziende straniere legate a governi ostili. Applicarla a un’azienda americana, fondata e operante negli Stati Uniti, solo perché rifiuta di fornire servizi senza restrizioni, è un precedente pericoloso, equivale a dire: “o fai tutto quello che diciamo noi, o ti trattiamo come un nemico”. È una forma di coercizione che potrebbe facilmente essere contestata come abuso di potere.
Ma vincere in tribunale richiede tempo, anni, probabilmente e nel frattempo? Nel frattempo Anthropic deve sopravvivere. Deve mantenere investitori, dipendenti, clienti, deve dimostrare che può competere senza i contratti governativi, questa è la vera sfida.
Amodei dice che “staremo comunque bene”, che “l’impatto di questa designazione è abbastanza piccolo”. Ma è difficile crederci completamente, perché l’effetto non è solo diretto (perdita dei contratti federali), è anche indiretto: reputazionale, psicologico, competitivo. Se sei un’azienda che fa business con il governo e vuoi evitare problemi, userai Claude o userai ChatGPT? La risposta è ovvia.
Questa vicenda non riguarda solo gli Stati Uniti. Riguarda il futuro globale dell’AI e del rapporto tra tecnologia e potere.
Se il messaggio che passa è “le aziende AI devono piegarsi completamente alle richieste governative o saranno annientate”, le conseguenze sono enormi. Significa che l’AI diventerà un’estensione diretta del potere statale. Significa che qualsiasi pretesa di neutralità, di uso responsabile, di considerazioni etiche, è subordinata agli interessi geopolitici del momento.
Questo vale per tutti i Paesi: la Cina probabilmente sta già implementando l’AI per sorveglianza di massa e controllo sociale, la Russia pure. L’Europa, con il suo AI Act, sta provando a trovare un equilibrio tra innovazione e protezione dei diritti. Ma se gli Stati Uniti, tradizionalmente guardiani delle libertà democratiche, cedono completamente all’imperativo della sicurezza nazionale, che speranza c’è per il resto del mondo?
L’ironia è che questo potrebbe anche accelerare una frammentazione globale dell’AI. Se le aziende americane devono scegliere tra servire il governo USA o servire clienti internazionali con standard etici diversi, molte sceglieranno la prima opzione (perché più redditizia e meno rischiosa). Il risultato sarà un mondo con “AI sovereigns“: modelli americani ottimizzati per gli interessi USA, modelli cinesi per la Cina, modelli europei per l’Europa, e così via. Ognuno con i propri valori, i propri bias, i propri limiti. È l’esatto opposto dell’utopia tech che ci avevano venduto: un’AI universale che eleva tutta l’umanità. Invece avremo AI balcanizzate, armi nella guerra fredda tecnologica del XXI secolo.
Alla fine, lo scontro tra Anthropic e il governo USA non è solo una disputa contrattuale o una battaglia legale: è il sintomo di una transizione epocale: il momento in cui l’umanità sta perdendo il controllo diretto sul proprio destino tecnologico.
Per millenni, gli strumenti umani erano estensioni dei nostri corpi e delle nostre menti: potevamo capirli, controllarli, prevederli. Ma l’intelligenza artificiale è qualitativamente diversa. Opera in modi che non comprendiamo completamente, prende decisioni basate su correlazioni che nessun umano potrebbe scoprire, scala a velocità e dimensioni che superano qualsiasi supervisione umana significativa.
Stiamo affidando questo potere a una combinazione esplosiva: governi assetati di sicurezza e controllo, aziende private motivate dal profitto, e una corsa agli armamenti globale dove chi rallenta per considerazioni etiche rischia di perdere tutto.
Amodei sta provando a tracciare una linea. Sta dicendo: “fin qui e non oltre: “È un tentativo ammirevole, forse anche eroico, ma è anche, in un certo senso, tragico. Perché stiamo assistendo a un singolo individuo, a capo di un’azienda privata, che prova a resistere alla marea della storia.
La vera domanda non è se Anthropic vincerà questa battaglia, probabilmente non la vincerà, o almeno non completamente. La vera domanda è: cosa succede dopo? Se Anthropic cede, impariamo che i principi nella Silicon Valley hanno un prezzo. Se Anthropic resiste ma fallisce, impariamo che i principi senza potere sono inutili. Se Anthropic in qualche modo vince, potrebbe aprire la strada a un nuovo modello dove l’etica tecnologica ha voce in capitolo.
Ma in tutti questi scenari, il problema di fondo rimane: abbiamo creato tecnologie che superano la nostra capacità di governarle democraticamente e non abbiamo ancora trovato il modo di risolvere questa equazione impossibile.
Forse l’unico vero insegnamento di questa storia è che l’AI ci sta costringendo a fare i conti con domande che avremmo preferito evitare: quanto potere vogliamo dare ai governi? Quanto ai privati? Quanta libertà siamo disposti a sacrificare per la sicurezza? Quanta sicurezza per la libertà? Possiamo ancora chiamarci una democrazia se le decisioni più importanti vengono prese da algoritmi che non comprendiamo, controllati da un’élite che non eleggiamo, per scopi che non ci vengono spiegati?
Forse, tra qualche anno, guarderemo a questo momento come al punto di svolta. Il momento in cui avremmo potuto prendere una strada diversa, imporre vincoli democratici sull’AI, proteggere i nostri valori fondamentali, o forse lo ricorderemo come l’ultima, inutile resistenza di un’azienda idealista prima della resa definitiva.
In ogni caso, una cosa è certa: il futuro dell’AI non sarà neutrale. Non sarà equo. Non sarà automaticamente benefico per l’umanità. Sarà quello che decideremo che sia, con le nostre scelte, i nostri compromessi, le nostre battaglie.
OpenClaw, un agente AI interno di Meta, ha cancellato 150 email lavorative di una ricercatrice…
Per capire i trend YouTube 2026 bisogna leggere tra le righe la lettera del CEO…
La scomparsa di Maurizio Fraccari, responsabile commerciale di Var Group, lascia un segno profondo nel…
BlueIT ridefinisce la protezione digitale delle imprese con un approccio proattivo, orientato al rischio di…
In un contesto geopolitico e tecnologico sempre più instabile, le aziende sono chiamate a ripensare…
Chi vince Sanremo? La classifica social di Sanremo 2026 è cruciale per il successo degli…
Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135
Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011