Palantir non è una AI che raccoglie dati o sorveglia, ma un’infrastruttura che connette informazioni già esistenti, rendendole leggibili insieme e trasformandole in decisioni operative. Nata nel contesto post-11 settembre e profondamente intrecciata con l’intelligence americana, l’azienda ha costruito un sistema basato su un’architettura unica, l’Ontologia, che permette di modellare la realtà come una rete di relazioni dinamiche tra dati, persone ed eventi
C’è un modo sbagliato di raccontare Palantir, ed è quello che hanno scelto quasi tutti: l’azienda dello spionaggio, il Grande Fratello in versione Silicon Valley, la società che sa tutto di te. Questa descrizione ha il pregio della semplicità e il difetto di spostare l’attenzione esattamente nel posto sbagliato, perché Palantir non raccoglie dati, non sorveglia nel senso che il termine evoca, e descriverla così significa perdere il punto tecnico che conta davvero, che è anche il punto più inquietante: Palantir connette. Non acquisisce informazioni nuove, prende quelle che esistono già, sparse in sistemi incompatibili che non si parlano, e le porta su un’unica superficie dove diventano leggibili insieme per la prima volta.
La differenza tra raccogliere e connettere non è semantica, ma architetturale. Capirla è l’unico modo per capire perché questa azienda, che ha chiuso il 2024 con 2,9 miliardi di dollari di ricavi e una capitalizzazione di mercato che The Economist ha definito “possibilmente la più sopravvalutata di tutti i tempi”, sia diventata nel giro di vent’anni il sistema nervoso delle operazioni militari americane, la piattaforma su cui gira la kill chain dell’esercito più potente del pianeta, e la tecnologia che in Iran, nelle prime ventiquattr’ore di un’operazione di guerra, ha elaborato e prioritizzato mille obiettivi.
Indice dei contenuti
Palantir: Da Peter Thiel a In-Q-Tel, un’origine che spiega tutto
Palantir nasce nel 2003, in un momento in cui l’America è ancora dentro lo shock dell’undici settembre e la comunità di intelligence ha appena scoperto una cosa che la traumatizza: i segnali precursori degli attacchi erano presenti nei database federali, c’erano, ma nessun sistema li aveva connessi in modo da renderli leggibili, e quella cecità non era una questione di risorse o di volontà bensì di architettura, di come i sistemi informativi del governo americano erano stati costruiti, ciascuno come un silo separato che non comunicava con gli altri.
Peter Thiel, che aveva già finanziato e co-fondato PayPal, vede in questo problema un’opportunità che è anche, a seconda del punto di osservazione, un dovere. Con Alex Karp, Stephen Cohen, Joe Lonsdale e Nathan Gettings costruisce un’azienda il cui nome è preso direttamente dal Signore degli Anelli: i palantíri sono le pietre veggenti, gli oggetti attraverso cui i personaggi di Tolkien vedono luoghi lontani e tempi distanti, e scegliere quel nome non è una trovata di marketing ma un manifesto, la dichiarazione di un’ambizione precisa.
Il primo finanziatore esterno, dopo Thiel stesso, è In-Q-Tel, il braccio di venture capital della CIA, e questo dettaglio non è un aneddoto biografico da citare e superare: è la chiave per decifrare tutto ciò che viene dopo, perché significa che Palantir nasce dentro il complesso militare-industriale americano, con una missione dichiarata e un cliente garantito, e che la sua traiettoria commerciale successiva, l’espansione verso i mercati civili, la quotazione in borsa, i contratti con le grandi aziende europee, è crescita a partire da quella radice, non allontanamento da essa.
Alex Karp, co-fondatore e CEO di Palantir Technologies
Alex Karp è forse il personaggio più atipico della Silicon Valley degli ultimi vent’anni, non perché sia un filosofo di formazione che ha studiato sotto Habermas a Francoforte, anche se questo conta, ma perché è uno dei pochi CEO del settore tecnologico americano che non si scusa e non si nasconde quando gli si chiede dei contratti militari. Il suo argomento è semplice, e scomodo, e vale la pena riportarlo con precisione: se le democrazie liberali non costruiscono la tecnologia militare migliore del mondo, quella tecnologia la costruiranno i regimi autoritari, e in quel mondo la libertà che oggi diamo per scontata non sopravvive. In questo frame, fare il contractor della difesa americana non è una compromissione etica da giustificare, è una posizione che Karp difende pubblicamente con la stessa chiarezza con cui un pacifista difende la sua. Che si condivida o meno, comprenderlo è necessario per capire le scelte strategiche dell’azienda.
L’architettura di Palantir: quattro piattaforme, una filosofia
Palantir non vende un prodotto: vende un sistema operativo per le decisioni, e per capire cosa significa bisogna scomporre le quattro piattaforme che compongono la suite e il concetto tecnico che le tiene insieme, che si chiama Ontologia ed è il vero differenziatore architetturale, quello che rende la tecnologia di Palantir difficile da replicare anche per i concorrenti con risorse comparabili.
Gotham, la piattaforma originale, rilasciata nel 2008, ha un dominio preciso: quello governativo e militare, le agenzie di intelligence, le forze armate, i dipartimenti di sicurezza interna. Il problema che Gotham risolve è quello della eterogeneità delle sorgenti dati, che nel mondo dell’intelligence significa feed satellitari, tabulati telefonici, archivi di rapporti scritti da agenti sul campo, sistemi di riconoscimento facciale, intercettazioni di comunicazioni, tutti in formati diversi, tutti in database separati, tutti con sistemi di accesso e classificazione distinti. Gotham non chiede alle sorgenti di standardizzarsi, al contrario impara a leggere ciascuna nel suo formato nativo e le porta su un’unica superficie analitica dove un analista può lavorare su tutto contemporaneamente, tracciare le connessioni tra elementi provenienti da sorgenti diverse, e costruire il grafo di relazioni che è la forma in cui l’intelligence diventa leggibile.
Foundry è la versione commerciale della stessa architettura, e il fatto che la stessa struttura funzioni per Airbus, che la usa per coordinare la produzione aeronautica, e per le organizzazioni sanitarie, e per le agenzie governative che gestiscono flussi di cittadini e servizi, dice qualcosa di preciso sulla natura del problema che Palantir risolve: non è un problema specifico di un settore, è un problema strutturale di qualsiasi organizzazione complessa che accumula dati in sistemi diversi nel corso del tempo. Quattro agenzie federali americane, inclusi il Department of Homeland Security e il Department of Health and Human Services, usano Foundry per le loro operazioni. Il contratto con NHS England del 2023, che ha generato proteste significative da parte di medici e organizzazioni per i diritti civili preoccupati della concentrazione di dati sanitari personali in mani private, è Foundry applicato al sistema sanitario nazionale britannico.
Apollo è il layer di deployment continuo, invisibile agli utenti finali ma essenziale: è il sistema che permette a Gotham e Foundry di funzionare in qualsiasi ambiente, cloud pubblico, infrastrutture on-premise, ambienti classificati fisicamente isolati dalla rete pubblica, dispositivi edge sul campo di battaglia, garantendo che le versioni del software siano allineate e aggiornate anche in condizioni di connettività degradata o assente, che è esattamente il problema che si pone quando si vuole che un sistema di intelligence funzioni in un teatro operativo remoto.
AIP, Artificial Intelligence Platform, arriva nel 2023 e non sostituisce le piattaforme precedenti ma si integra sopra di esse, portando i modelli linguistici di grandi dimensioni all’interno dei flussi operativi esistenti con tutti i vincoli di sicurezza e governance che gli ambienti classificati richiedono. Il risultato pratico è che un analista può interrogare in linguaggio naturale l’intero corpus di dati che Gotham o Foundry hanno integrato, fare una domanda invece di costruire una query tecnica complessa, e ricevere una risposta che attraversa sorgenti diverse come se fossero una sola. In agosto 2024, Palantir e Microsoft hanno annunciato il deployment dell’intera suite, inclusa AIP, nei cloud classificati Microsoft Azure Government, compresi gli ambienti Top Secret del Dipartimento della Difesa.
Il cuore tecnico di Palantir: l’Ontologia
Per capire davvero perché Palantir è difficile da replicare, anche da parte di concorrenti con risorse significative, bisogna capire l’Ontologia, che è il concetto tecnico al centro di tutto e che merita un’attenzione che la maggior parte della stampa generalista non gli dedica.
I dati grezzi non hanno significato da soli. Una riga in un database dice che l’entità X si trovava alle coordinate Y al tempo Z, ma questa informazione isolata non significa nulla finché non viene messa in relazione con altre righe, finché l’entità X non viene identificata come una persona specifica con una storia, finché le coordinate Y non vengono connesse a un luogo che ha un significato strategico, finché il tempo Z non viene posto in sequenza con altri eventi che cambiano la lettura di quell’istante. Il significato non è nei dati, è nelle relazioni tra i dati, e costruire quelle relazioni in modo sistematico, governato, scalabile e accessibile tanto agli analisti umani quanto ai modelli di machine learning è esattamente quello che l’Ontologia di Palantir fa.
In termini tecnici, l’Ontologia è una rappresentazione strutturata del mondo reale in termini di oggetti, proprietà e relazioni: ogni entità rilevante nell’universo operativo di un cliente, una persona, un veicolo, un’organizzazione, un’arma, una transazione finanziaria, una posizione geografica, viene mappata come un oggetto tipizzato con le sue proprietà specifiche, le relazioni tra oggetti vengono modellate come link che portano informazione sul tipo di relazione, e le azioni che modificano gli oggetti vengono definite con regole di governance, audit trail e controlli di accesso incorporati che garantiscono che ogni cambiamento sia tracciabile e autorizzato.
Il risultato è quello che Palantir chiama digital twin: non una fotografia statica dell’organizzazione o del teatro operativo, ma una rappresentazione viva che si aggiorna in tempo reale, che serve come superficie comune su cui lavorano insieme analisti umani, modelli di machine learning e, con AIP, agenti basati su modelli linguistici, e che ha la caratteristica di essere costruita in termini di concetti del mondo reale piuttosto che in termini di strutture di database, il che la rende comprensibile e utilizzabile da persone che non sono ingegneri informatici.
La potenza di questo approccio, e la ragione per cui è difficile da replicare, sta nella sua universalità: la stessa architettura che modella una catena di fornitura industriale modella il network di relazioni di un’organizzazione terroristica, perché in entrambi i casi si tratta di oggetti con proprietà e relazioni tipizzate, e il concetto di “componente aeronautico” e il concetto di “combattente nemico” sono entrambi oggetti ontologici che vivono nella stessa struttura formale. Ma soprattutto, una volta che un’organizzazione ha costruito la propria Ontologia nel corso di anni di lavoro, con migliaia di oggetti, relazioni e regole di governance calibrate sulla propria realtà operativa, il costo di abbandonarla per un sistema alternativo diventa enorme, perché significa ricostruire quella rappresentazione del mondo da zero, e questo crea un vantaggio competitivo strutturale che va ben oltre la qualità del software.
Maven Smart System: la guerra accelerata
Nel 2017, il Dipartimento della Difesa americano lancia il Progetto Maven con un obiettivo inizialmente circoscritto: applicare il riconoscimento automatico delle immagini alle riprese di droni e satellite per identificare bersagli militari senza richiedere ore di lavoro manuale di analisti. Google vince il contratto. Un anno dopo, più di quattromila dipendenti di Google firmano una petizione contro quella collaborazione, alcuni ingegneri si dimettono, e nel 2018 l’azienda decide di non rinnovare il contratto alla scadenza.
Palantir prende il progetto e nel corso dei sei anni successivi lo trasforma in qualcosa di molto più ambizioso di un sistema di riconoscimento immagini. Il Maven Smart System attuale è una piattaforma di targeting integrata che consolida in un’unica superficie funzioni che in precedenza richiedevano il passaggio sequenziale attraverso otto o nove sistemi separati: dati da immagini satellitari, video di droni, intelligence sui segnali, intercettazioni di comunicazioni, radar, rapporti di intelligence umana, tutto confluisce in un sistema che gli algoritmi di machine learning processano per identificare potenziali obiettivi, assegnare loro priorità, e supportare l’intero processo che il Pentagono chiama kill chain, dall’identificazione del bersaglio alla pianificazione dell’attacco fino all’autorizzazione finale.
I numeri che il sistema ha prodotto in operazioni reali sono di un ordine di grandezza che rende difficile la comprensione intuitiva: mille raccomandazioni di targeting all’ora durante le operazioni di picco, ventimila utenti attivi distribuiti in tutti i comandi combattenti americani, e una riduzione della forza lavoro analitica richiesta che il caso dell’18° Airborne Corps ha reso concreta, con un team di circa venti persone che replica la capacità di analisi di una cellula da duemila analisti come quella impiegata durante Operation Iraqi Freedom.
La traiettoria contrattuale racconta la stessa storia in termini economici: 480 milioni di dollari per il contratto iniziale firmato nel maggio 2024, elevati a 1,3 miliardi nel maggio 2025, seguiti da un accordo enterprise dell’esercito americano da 10 miliardi che consolida 75 contratti preesistenti in luglio 2025. A marzo 2025, la NATO ha acquisito una versione di Maven per i suoi comandi operativi alleati in quello che i funzionari dell’alleanza hanno descritto come uno dei processi di acquisizione più rapidi della storia della NATO, il che dice qualcosa sulla priorità che i comandi militari occidentali attribuiscono a questo sistema.
Palantir in Iran
Il 28 febbraio 2026, gli Stati Uniti e Israele lanciano l’Operazione Epic Fury contro l’Iran, e Maven Smart System è il sistema centrale di targeting per l’operazione, quello che il Pentagono ha usato per elaborare, prioritizzare e portare attraverso le fasi del processo di autorizzazione i bersagli che le forze americane hanno poi colpito.
Nelle prime ventiquattr’ore di operazione, il sistema ha elaborato e prioritizzato circa mille obiettivi, una cifra che il comandante di US Central Command, l’ammiraglio Brad Cooper, ha confermato pubblicamente dichiarando che a quella data le forze americane avevano colpito oltre cinquemilacinquecento obiettivi all’interno dell’Iran. Cameron Stanley, Chief Digital and AI Officer del Pentagono, ha descritto Maven come “rivoluzionario” precisamente perché ha compresso in un’unica piattaforma un processo che prima richiedeva il passaggio attraverso otto o nove sistemi distinti, con esseri umani che letteralmente spostavano informazioni da uno schermo all’altro per portare un bersaglio dall’identificazione all’autorizzazione.
In tardo 2024, Palantir aveva integrato i modelli Claude di Anthropic all’interno di Maven attraverso la piattaforma AIP, con un accreditamento Impact Level 6 per operare in ambienti classificati. Il ruolo dei modelli linguistici nell’operazione era però specifico e circoscritto: elaborare volumi massivi di documenti di intelligence non strutturati, sintetizzare rapporti in linguaggio naturale, permettere agli analisti di interrogare il corpus documentale con domande dirette invece di query tecniche. Le funzioni di identificazione dei bersagli, fusione dei dati sensoriali e gestione del processo di targeting erano tecnologie di computer vision e machine learning che preesistono ai modelli linguistici di diversi anni, e questa distinzione è importante da rendere esplicita perché il dibattito pubblico successivo all’operazione l’ha spesso confusa, concentrandosi sul ruolo di Claude e dei modelli linguistici in modo che non riflette l’architettura reale del sistema.
C’è un episodio che questa distinzione rende insieme più precisa e più inquietante. Il primo giorno dell’operazione, un missile americano ha colpito la scuola primaria Shajareh Tayyebeh a Minab, nel sud dell’Iran, uccidendo tra le 175 e le 180 persone, la maggior parte bambine tra i sette e i dodici anni. La domanda politica e mediatica si è concentrata sul ruolo dell’AI nel targeting, e la risposta tecnica è questa: l’edificio era classificato come struttura militare in un database della Defense Intelligence Agency che, secondo quanto riportato da CNN, non era stato aggiornato per riflettere la separazione fisica dell’edificio da una struttura militare adiacente. Maven non ha sbagliato nella sua elaborazione. Ha elaborato correttamente un dato sbagliato.
Questa precisione tecnica non allevia nulla, ma sposta la domanda su un piano diverso, che è quello in cui la questione della responsabilità diventa più complessa e meno eludibile: chi risponde quando un sistema che genera mille raccomandazioni all’ora si basa su un dato errato che nessun essere umano ha verificato prima che il ciclo di targeting si chiudesse? L’azienda che ha costruito il sistema? Il database che conteneva l’errore? L’analista che ha approvato la raccomandazione sotto la pressione operativa di un’operazione in corso? Il comandante che ha firmato l’autorizzazione? Il policy maker che ha approvato il deployment di un sistema con quella velocità di elaborazione in un contesto di guerra urbana?
La questione della responsabilità
Palantir e il Pentagono sostengono che Maven produce raccomandazioni e che la decisione finale rimane sempre a un essere umano, e questa affermazione è tecnicamente vera nel senso che nessun missile parte senza che qualcuno abbia premuto un tasto di autorizzazione. Ma c’è una differenza sostanziale tra un controllo umano che si esercita su una raccomandazione alla volta, con il tempo di valutarla, verificarla, chiedersi se il dato sottostante è affidabile, e un controllo umano che si esercita su mille raccomandazioni all’ora in un contesto operativo di pressione estrema dove la velocità è essa stessa un obiettivo militare, e quella differenza non è catturata dalla formula “l’umano decide sempre”.
Il DoD Directive 3000.09, aggiornato nel gennaio 2023, richiede “livelli appropriati di giudizio umano sull’uso della forza”, una formulazione volutamente ambigua che lascia aperto esattamente il problema che il dispiegamento operativo di Maven ha reso concreto. Il memo strategico firmato dal Segretario alla Difesa Hegseth in gennaio 2026 spinge in direzione opposta, affermando esplicitamente che “dobbiamo accettare che i rischi di non muoverci abbastanza in fretta superano i rischi di un allineamento imperfetto”, il che è una presa di posizione sul tradeoff tra velocità e cautela che ha conseguenze dirette su cosa si intende per “giudizio umano appropriato”.
In questo spazio, tra la direttiva del 2023 e il memo del 2026, tra la dichiarazione di Palantir che il sistema raccomanda e l’essere umano decide, e la realtà operativa di mille raccomandazioni all’ora in un teatro di guerra attivo, vive la domanda più difficile che questa generazione di tecnologia militare pone. Non è una domanda sulla malevolenza di Palantir o sull’intenzione dei suoi fondatori, che hanno costruito un sistema che funziona esattamente come dicono che funziona. È una domanda sull’architettura della responsabilità quando le decisioni letali vengono mediate da sistemi che nessun essere umano è in grado di comprendere completamente nella loro interezza, e quando la velocità di elaborazione di quei sistemi supera strutturalmente la velocità con cui un essere umano può esercitare un controllo sostanziale.
Le questioni aperte su Palantir
Il diritto internazionale è indietro sulla tecnologia militare AI di almeno un ciclo regolatorio. La risoluzione dell’Assemblea Generale delle Nazioni Unite di dicembre 2024 sulle armi letali autonome è stata approvata con 166 voti contro 3, ma non crea obblighi vincolanti, e Russia, Corea del Nord e Bielorussia hanno votato contro, il che è già di per sé una risposta alla domanda se esista la volontà politica globale di costruire un quadro condiviso.
Nel frattempo, la Russia impiega sistemi di AI designati Platform-GNS e Avtomat per elaborare i dati di targeting in Ucraina a un ritmo stimato di trecento obiettivi al giorno con sistemi senza pilota, e il mondo non aspetta che il diritto internazionale raggiunga la tecnologia: la accelera, la dispiega, e lascia che le domande sulla governance seguano a una distanza che si allarga ogni giorno.
Palantir è in questo senso lo specchio più nitido di una contraddizione che le democrazie liberali portano con sé senza averla mai risolta: l’idea che la tecnologia sia neutrale e che la responsabilità stia nell’uso, combinata con la realtà di sistemi la cui velocità operativa rende il controllo umano qualcosa di strutturalmente diverso da quello che il termine evoca. La scuola di Minab non è stata colpita perché qualcuno ha voluto colpirla. È stata colpita perché un sistema che nessuna persona singola comprende nella sua interezza ha elaborato un dato sbagliato alla velocità del pensiero, e nessuna delle architetture di responsabilità esistenti era costruita per questo scenario.


