Anthropic affitta tutta la capacità del data center Colossus 1 di SpaceX a Memphis: oltre 300 megawatt e più di 220.000 GPU NVIDIA. La corsa all’AI entra nella fase in cui il vero vincolo non è più solo il chip, ma energia, raffreddamento, spazio fisico e sovranità infrastrutturale.
Anthropic affitta il datacenter Colossus 1: oltre 300 megawatt per alimentare Claude: potrebbe sembrare soltanto l’ennesimo accordo infrastrutturale nella corsa all’intelligenza artificiale; in realtà è un passaggio molto più profondo, perché il 6 maggio 2026 la società che sviluppa Claude ha firmato un accordo con SpaceX per utilizzare tutta la capacità di calcolo del data center Colossus 1 a Memphis, una struttura che mette in campo più di 300 megawatt di nuova capacità e oltre 220.000 GPU NVIDIA, tra H100, H200 e sistemi GB200, con l’obiettivo immediato di aumentare i limiti di utilizzo di Claude Code e delle API Claude per gli utenti paganti.
Il dato tecnico, da solo, è già impressionante; ma Anthropic non sta semplicemente comprando più potenza di calcolo, sta dimostrando che la competizione sull’AI generativa si è spostata definitivamente dal piano del modello al piano dell’infrastruttura, dal codice al watt. Ci siamo spesso concentrati (tutti) sull’AI come architettura neurale, enormi dataset; oggi questi elementi rimangono centrali (per carotà), ma non bastano più, perché il modello più avanzato del mondo diventa irrilevante se non ha abbastanza energia per rispondere e abbastanza GPU per scalare, se non ha abbastanza data center per reggere la domanda e serve territorio, fisico o forse orbitale, per continuare a crescere.

Indice dei contenuti
Musk e Anthropic, da nemici ideologici ad amici computazionali
La parte quasi romantica della vicenda riguarda Elon Musk, perché pochi mesi fa il fondatore di xAI aveva attaccato Anthropic con toni durissimi, arrivando a definire Claude “misanthropic and evil”; ora invece ha spiegato su X di aver dato il via libera all’accordo dopo aver incontrato i vertici dell’azienda, aggiungendo una frase perfetta per descrivere l’ambiguità della nuova stagione dell’AI: “no one set off my evil detector” (“Nessuno ha fatto scattare il mio rilevatore di malvagità). La battuta di Musk contiene una giravolta evidente, ma sarebbe un errore fermarsi al folklore del personaggio; il punto vero è che la fame di potenza computazionale è ormai così forte da costringere anche i più acerrimi nemici che si sono accusati pubblicamente, a condividere infrastruttura. La competizione sull’AI non elimina la dipendenza reciproca, la rende più sofisticata; perché chi possiede capacità di calcolo diventa, anche per i concorrenti, un fornitore inevitabile, mentre chi sviluppa modelli d’avanguardia non può più permettersi di aspettare che la propria infrastruttura cresca alla stessa velocità della domanda. La fame di compute, in altre parole, ha appena trasformato due rivali in amici; e questa immagine, più di molte analisi finanziarie, racconta il nuovo equilibrio dell’AI industriale.
Il vincolo non è più la GPU: è il watt
Il dettaglio più significativo di questo accordo arriva poi da SpaceXAI, che nella nota ufficiale sull’accordo ha scritto che “the compute required to train and operate the next generation of these systems is outpacing what terrestrial power, land, and cooling can deliver on the timelines that matter”.“La potenza di calcolo necessaria per addestrare e far funzionare la prossima generazione di questi sistemi sta crescendo più rapidamente di quanto le infrastrutture terrestri, in termini di energia, spazio disponibile e capacità di raffreddamento, siano in grado di sostenere nei tempi che contano davvero.” Qui c’è il cuore della questione, perché SpaceX non sta dicendo che mancano soltanto chip, né che serve semplicemente una supply chain più efficiente; sta dicendo che la crescita dell’AI sta superando ciò che l’infrastruttura terrestre può garantire nei tempi richiesti dal mercato, serve lo spazio.
Potenza elettrica, suolo, raffreddamento, autorizzazioni, connessioni, comunità locali, sostenibilità ambientale e stabilità delle reti elettriche diventano così i veri colli di bottiglia della prossima fase; la GPU resta il simbolo dell’AI, ma il watt ne diventa la sostanza.
Su Digitalic lo abbiamo raccontato parlando dei data center in Italia come opportunità da 30 miliardi, perché l’infrastruttura digitale non è più una voce tecnica nascosta nei piani industriali, ma una delle condizioni materiali della competitività economica; senza data center, energia e connettività non esiste cloud, senza cloud non esiste AI su scala, senza AI su scala non esiste più sovranità tecnologica credibile.
Data center orbitali: la fantascienza entra nel piano industriale
L’elemento che porta la notizia oltre la dimensione terrestre è nella stessa comunicazione di Anthropic: come parte dell’accordo, l’azienda ha dichiarato interesse a collaborare con SpaceX per sviluppare “multiple gigawatts of orbital AI compute capacity”, cioè capacità di calcolo AI orbitale su scala di gigawatt. Fino a pochissimo tempo fa, l’idea di mettere data center nello spazio apparteneva al territorio delle visioni estreme, buone per conferenze futuristiche o per slide da laboratorio avanzato; oggi entra invece nel linguaggio operativo di una delle aziende più importanti dell’AI mondiale, dentro un accordo firmato con una società che possiede razzi, satelliti, infrastrutture spaziali e una capacità unica di trasformare ipotesi ingegneristiche in sistemi industriali. Su Digitalic avevamo già affrontato questo salto con Project Suncatcher, il progetto con cui Google esplora data center AI nello spazio; allora sembrava ancora una traiettoria avanzata, forse lontana, certamente affascinante, mentre l’accordo tra Anthropic e SpaceX mostra che quella traiettoria non è più soltanto ricerca: è diventata un’opzione strategica, ancora difficilissima, piena di incognite tecniche, economiche e ambientali, ma ormai entrata nel perimetro delle decisioni industriali. La ragione è brutale nella sua semplicità: se sulla Terra mancano energia, spazio e raffreddamento nei tempi richiesti dall’AI, allora l’industria comincia a guardare fuori dalla Terra; non perché lo spazio sia magicamente più semplice, ma perché la pressione competitiva sta rendendo accettabili idee che fino a ieri sembravano eccessive.
Claude Code, API e il lato concreto della corsa all’infrastruttura
Anthropic presenta l’accordo con SpaceX dentro una comunicazione molto pratica: più capacità significa limiti più alti per Claude Code, rimozione dei limiti nelle ore di picco per gli utenti Pro e Max, aumento dei rate limit delle API Claude Opus, quindi più spazio di utilizzo per sviluppatori, aziende e clienti enterprise. Questo dettaglio è importante perché ci riporta dal cielo alla Terra, agli uffici del CIO; la fame di potenza computazionale non nasce da un capriccio dei laboratori di ricerca, ma dall’uso quotidiano di strumenti AI che ormai entrano nei processi di sviluppo software, nell’automazione documentale, nell’analisi dei dati, nella customer experience, nel supporto decisionale e nella generazione di codice.
“Ogni volta che un’azienda aumenta l’uso di agenti AI, ogni volta che un team di sviluppo sposta attività su Claude Code, ogni volta che un workflow enterprise viene orchestrato da modelli multimodali o sistemi agentici, dietro quell’apparente semplicità di interfaccia si accende una filiera industriale gigantesca; e quella filiera consuma energia, occupa territorio, richiede raffreddamento, mette sotto pressione reti elettriche e obbliga i grandi player a stringere accordi sempre più ampi.
Il compute, per usare una parola che ormai non ha più una traduzione pienamente soddisfacente, è diventato la materia prima dell’intelligenza artificiale; non una risorsa accessoria, ma l’equivalente digitale dell’acciaio, dell’elettricità e del petrolio nelle precedenti rivoluzioni industriali.
Sovranità digitale europea: non basta scrivere regole se non si possiede potenza
Per il CIO italiano il messaggio dell’accordo Anthropic, SpaceX è molto più concreto di quanto possa sembrare; perché quando la competizione AI si misura in centinaia di megawatt, centinaia di migliaia di GPU e ipotesi di calcolo orbitale su scala gigawatt, la sovranità digitale europea smette di essere soltanto una questione normativa e diventa una questione fisica.
L’Europa può avere regole migliori, maggiore sensibilità sulla protezione dei dati, un approccio più maturo alla governance e una visione più attenta ai diritti; però, se non dispone anche di capacità computazionale, energia, data center, reti, competenze e tempi di realizzazione compatibili con la velocità del mercato, rischia di trasformare la propria sovranità in un principio giuridico privo di massa industriale.
Su Digitalic abbiamo affrontato questo nodo nell’articolo sul Brussels Economic Forum 2026 e sulla costruzione di un’AI europea, dove il tema non era semplicemente difendere valori europei, ma capire come trasformarli in infrastrutture, adozione, scala e capacità produttiva; lo stesso vale per i trend di sovranità digitale del 2026, perché autonomia tecnologica e indipendenza dei dati diventano fragili se il calcolo necessario a far funzionare l’AI resta concentrato altrove.
IT4LIA e CINECA dentro una competizione AI
L’Italia non parte da zero; IT4LIA AI Factory, ospitata e gestita da CINECA al Tecnopolo DAMA di Bologna, è stata pensata proprio per rafforzare l’ecosistema nazionale ed europeo dell’intelligenza artificiale attraverso infrastrutture HPC avanzate e servizi per imprese, startup, pubbliche amministrazioni e ricerca. Il punto, però, è che iniziative come IT4LIA si muovono dentro un mercato in cui gli avversari non sono più soltanto altri centri di supercalcolo, ma coalizioni industriali capaci di mettere insieme hyperscaler, produttori di chip, società spaziali, grandi laboratori AI e capacità energetiche enormi. Anthropic, nella stessa nota in cui annuncia l’accordo con SpaceX, ricorda anche altri impegni infrastrutturali: accordi fino a 5 gigawatt con Amazon, 5 gigawatt con Google e Broadcom, 30 miliardi di dollari di capacità Azure attraverso la partnership con Microsoft e NVIDIA, oltre a 50 miliardi di dollari di investimenti in infrastruttura AI americana con Fluidstack. Questa lista dice molto più di qualsiasi slogan sulla trasformazione digitale; perché mostra che la frontiera dell’AI non si costruisce più con un singolo data center, ma con una geografia distribuita di energia, hardware, cloud, modelli, software e alleanze, spesso tra soggetti che su un altro piano restano concorrenti. Per l’Europa la lezione è dura: la sovranità non può essere soltanto difensiva, non può limitarsi a proteggere dati e regole, deve diventare capacità di costruire scala, altrimenti ogni discussione sull’AI europea rischia di fermarsi nel punto esatto in cui inizia la parte più costosa, cioè l’infrastruttura.
L’AI Factory brucia elettricità e produce token
Jensen Huang ha reso popolare l’immagine dell’AI Factory, la fabbrica di intelligenza artificiale, un luogo in cui entrano dati ed energia ed escono token, previsioni, automazioni, codice, contenuti, decisioni assistite e nuovi processi industriali; questa immagine, che su Digitalic abbiamo collegato alla trasformazione dell’AI in infrastruttura produttiva, diventa ancora più concreta davanti all’accordo Anthropic, SpaceX. Una fabbrica tradizionale aveva bisogno di materie prime, macchinari, energia, operai, logistica e mercati; una AI Factory ha bisogno di dataset, modelli, GPU, energia elettrica, raffreddamento, reti ad alta capacità, software stack, data governance e domanda applicativa costante. Il punto è che la parte immateriale dell’intelligenza artificiale, quella che vediamo nelle interfacce conversazionali e nei tool di produttività, poggia su una base sempre più materiale; cemento, rame, acqua, energia, chip, autorizzazioni, cabine elettriche, sottostazioni, contratti pluriennali e, forse, orbite terrestri basse. Questa materialità dell’AI rompe una delle illusioni più comode della trasformazione digitale: l’idea che il digitale sia leggero, quasi senza peso, come se il cloud fosse davvero una nuvola e non una rete planetaria di macchine che scaldano, consumano, occupano e devono essere alimentate ogni secondo.
La nuova geopolitica dell’AI passa dai data center
L’accordo tra Anthropic e SpaceX mostra anche un’altra evoluzione: la geopolitica dell’intelligenza artificiale non passa più soltanto dai chip esportati o bloccati, dai modelli aperti o chiusi, dalle norme sulla sicurezza o dai grandi fondi pubblici; passa sempre di più dai luoghi in cui la potenza di calcolo può essere installata, alimentata e difesa. Memphis diventa così più di una città americana che ospita un grande data center; diventa un nodo della geografia AI mondiale, come lo sono le aree dove si concentrano energie rinnovabili, fibra, terreni disponibili, acqua per il raffreddamento o, in prospettiva, capacità di lancio e infrastrutture spaziali. Per un CIO questo significa che le decisioni tecnologiche dei prossimi anni non potranno essere separate dalle decisioni infrastrutturali; scegliere un modello, una piattaforma cloud, un fornitore AI o una strategia dati significherà anche scegliere una dipendenza energetica, una giurisdizione, una catena di fornitura, un livello di resilienza e un’esposizione geopolitica.