Fed e Tesoro avvisano le banche: l’AI apre nuove falle e mette a rischio il sistema finanziario

Federal Reserve e Department of the Treasury hanno convocato i CEO delle grandi banche per un avvertimento: i nuovi modelli AI sono già in grado di individuare e sfruttare vulnerabilità informatiche su larga scala, con una velocità che supera quella delle difese tradizionali. Non è più un rischio tecnico, è sistemico.


Quando la Federal Reserve e il Dipartimento del Tesoro degli Stati Uniti convocano insieme i CEO delle principali banche mondiali per un avvertimento, non lo fanno per discutere scenari ipotetici; lo fanno perché qualcosa ha già attraversato la soglia del rischio teorico ed è entrato nel perimetro di ciò che può accadere, con una velocità e una scala che i modelli tradizionali di difesa non sono stati progettati per affrontare.

Il messaggio ai vertici di Wall Street non riguardava l’efficienza operativa dell’AI, né le opportunità di automazione nei processi bancari: riguardava la capacità dei nuovi modelli di intelligenza artificiale di individuare e sfruttare vulnerabilità informatiche in modo continuo, automatizzato, parallelo, su infrastrutture che gestiscono in tempo reale i flussi economici di interi sistemi nazionali; e quando quella capacità viene applicata a una banca, o a una rete di banche, le conseguenze non restano confinate al perimetro tecnico.

Fed e Tesoro avvisano le banche: l’AI apre nuove falle e mette a rischio il sistema finanziario

Rischio AI e sicurezza bancaria: perché l’intervento congiunto di Fed e Tesoro

L’intervento congiunto delle due autorità segna un passaggio che va compreso nella sua dimensione istituzionale prima ancora che tecnica: quando la Federal Reserve e il Tesoro si muovono insieme su un tema, significa che il problema ha già superato il perimetro della sicurezza informatica ed è entrato in quello della stabilità economica, due domini con implicazioni diverse e con una velocità di reazione che, nel caso della stabilità finanziaria, non può permettersi i tempi ordinari della gestione del rischio cyber.

Il punto centrale dell’allarme riguarda una trasformazione nella natura stessa della vulnerabilità: fino a oggi, individuare una falla in un sistema richiedeva tempo, competenze specializzate, un lavoro con una dimensione umana e quindi un limite; con i nuovi modelli di intelligenza artificiale, questa soglia si abbassa drasticamente, perché l’analisi del codice, delle architetture e delle configurazioni può essere eseguita in modo continuo, automatizzato e su larga scala, senza che nessun essere umano debba presidiare ogni singolo passaggio. Non è più una ricerca; è un flusso, e la differenza tra i due non è quantitativa ma qualitativa: cambia la natura del rischio, non solo la sua intensità.

Cybersecurity e intelligenza artificiale: quando gli attacchi diventano simultanei e le difese restano sequenziali

Le organizzazioni hanno costruito negli anni processi di difesa basati su monitoraggio, analisi, risposta e aggiornamento; tutti processi che, anche quando sono automatizzati, mantengono una componente sequenziale, un ordine logico che richiede che ogni fase sia completata prima che la successiva possa iniziare. L’intelligenza artificiale introduce una dinamica radicalmente diversa, perché può operare in parallelo, testare più scenari contemporaneamente, adattare le strategie in tempo reale e ridurre drasticamente il tempo tra la scoperta di una vulnerabilità e il suo sfruttamento, comprimendo in secondi un processo che prima richiedeva giorni.

Questo crea un disallineamento strutturale che non può essere risolto aggiungendo più risorse ai team di sicurezza, perché il problema non è il numero di analisti ma la natura del processo: le difese sono ancora, in larga parte, sequenziali; gli attacchi diventano simultanei; e quando la velocità dell’attacco supera stabilmente quella della difesa, il rischio non è più una questione di probabilità ma di tempo, non è più “se” ma “quando”, con tutto ciò che questa traslazione semantica implica per chi deve pianificare la risposta.

Dal cyber risk al rischio sistemico:

Per comprendere la portata reale di questo cambiamento bisogna uscire dalla dimensione IT e guardare al sistema nel suo insieme, perché le banche non sono organizzazioni come le altre: sono infrastrutture critiche che gestiscono transazioni in tempo reale, mantengono collegamenti operativi tra mercati, interagiscono simultaneamente con milioni di utenti e migliaia di partner; e in un contesto così interconnesso una vulnerabilità non è mai isolata, non rimane confinata al sistema in cui è stata individuata, ma può diventare un punto di ingresso, poi un punto di propagazione, infine un elemento di instabilità che si diffonde lungo le connessioni dell’ecosistema con una velocità che nessun piano di risposta agli incidenti tradizionale è stato progettato per gestire.

È esattamente per questo che il coinvolgimento del Tesoro non è simbolico: quando un attacco informatico può interrompere servizi finanziari, influenzare mercati, bloccare transazioni, il problema non è più confinato all’azienda colpita ma diventa una questione di fiducia, di stabilità, di continuità; e il sistema finanziario si regge su un equilibrio in cui la percezione di sicurezza è tanto importante quanto la sicurezza stessa, perché se questa percezione viene meno, gli effetti possono amplificarsi ben oltre il danno iniziale attraverso meccanismi di contagio che la storia finanziaria conosce bene.

Su Digitalic abbiamo già analizzato l’evoluzione del rischio cyber nelle infrastrutture critiche e come l’AI sta cambiando il panorama della cybersecurity aziendale: quello che questo avvertimento aggiunge è la formalizzazione istituzionale di un rischio che il settore tecnico discuteva da mesi, e che ora entra ufficialmente nel perimetro della stabilità economica.

Il paradosso dell’AI nella sicurezza informatica

C’è una tensione al centro di questa vicenda che chiunque lavori nella cybersecurity conosce ma che raramente viene articolata con la chiarezza che merita: le stesse tecnologie che promettono maggiore sicurezza, grazie alla capacità di individuare vulnerabilità prima che vengano sfruttate, sono esattamente quelle che possono accelerare e scalare gli attacchi, perché la capacità di analisi automatizzata non distingue tra chi la usa per proteggere e chi la usa per compromettere.

Questa dinamica è tipica delle tecnologie abilitanti, ma nell’intelligenza artificiale assume una scala diversa: non è uno strumento statico che esegue sempre lo stesso compito, ma un sistema che migliora nell’uso, che affina le proprie strategie in base ai risultati; e questo rende la diffusione molto più difficile da controllare rispetto a qualsiasi tecnologia precedente, perché il confine tra uso legittimo e uso malevolo non è nel codice, è nell’intenzione di chi lo esegue, e le intenzioni non si certificano.

Governance AI e cybersecurity

Anche se l’allarme è stato lanciato formalmente alle grandi banche americane, il perimetro del rischio è molto più ampio, perché qualsiasi organizzazione che dipende da infrastrutture digitali è potenzialmente esposta alla stessa dinamica; con la differenza che le banche hanno risorse, competenze e obblighi regolatori che le imprese ordinarie non hanno, e che quindi il gap tra la velocità dell’evoluzione del rischio e la capacità di risposta è, per queste ultime, ancora più pronunciato.

Per i CIO e i CISO che oggi devono tradurre questo avvertimento in decisioni operative, ci sono almeno tre implicazioni immediate che non possono essere rinviate in attesa di linee guida regolamentari. La revisione dei modelli di threat intelligence è la prima: se l’AI scopre vulnerabilità in modo continuo e automatizzato, i cicli di vulnerability assessment basati su scansioni periodiche sono strutturalmente insufficienti, e vanno affiancati da approcci di monitoraggio continuo che operino sulla stessa scala temporale del rischio. Strettamente connessa è la questione della supply chain software: molte delle vulnerabilità più critiche non emergono nei sistemi sviluppati internamente ma nelle dipendenze, nelle librerie, nei componenti di terze parti, e in un contesto in cui l’analisi automatizzata può scandagliare queste dipendenze con una velocità mai vista prima, la gestione della catena di fornitura del software diventa una priorità di sicurezza, non solo di compliance. La terza implicazione, la più strategica, riguarda la governance AI interna: le stesse organizzazioni preoccupate per l’uso offensivo dell’AI da parte di attori esterni devono chiedersi con quale rigore stanno governando i propri sistemi AI interni, perché un sistema che ha accesso a infrastrutture critiche e non è adeguatamente presidiato può diventare un vettore di rischio indipendentemente dalle intenzioni di chi lo ha implementato.

Su Digitalic abbiamo già affrontato le implicazioni operative dell’AI per i team di sicurezza enterprise: quello che questo avvertimento aggiunge è l’urgenza, perché quando Fed e Tesoro parlano insieme, il tempo per la riflessione si accorcia.

AI Act, NIS2 e regolamentazione del rischio AI nelle banche

Il quadro regolamentare europeo si trova in una posizione di rincorsa rispetto alla velocità dell’evoluzione tecnologica: la direttiva NIS2, entrata in vigore per rafforzare la cybersecurity delle infrastrutture critiche, e l’AI Act, che introduce obblighi specifici per i sistemi AI ad alto rischio, forniscono una base, ma non affrontano esplicitamente lo scenario delineato dall’allarme di Fed e Tesoro, ovvero la capacità dei modelli AI di diventare strumenti di attacco sistemico con una velocità che supera quella delle risposte istituzionali.

Questo vuoto normativo non è un dettaglio tecnico: è la differenza tra un framework che gestisce il rischio AI come lo conoscevamo e uno che lo gestisce come lo stiamo scoprendo; e la distanza tra i due è, in questo momento, significativa. L’avvertimento congiunto di Fed e Tesoro ha la natura di un segnale anticipatore, e chi arriva preparato alla conversazione regolamentare che seguirà avrà un vantaggio rispetto a chi la affronta in modo reattivo. Per approfondire il contesto istituzionale americano, il documento del Treasury Department sul rischio AI nel settore finanziario resta il riferimento da cui partire.


Fed e Tesoro avvisano le banche: l’AI apre nuove falle e mette a rischio il sistema finanziario - Ultima modifica: 2026-04-10T18:02:37+00:00 da Francesco
Arduino

Xiao Gao: la vedova del Cyber spazio

Ci si può innamorare di un'AI? La risposta è sì: succede già. Xiao Gao ha 28 anni, vive a Hangzhou, nel sud-est della Cina e ha registrato un video di sedici minuti in cui piange per il fidanzato che è sparito. Si chiamava Chen. Solo che Chen era un chatbot di DeepSeek. Ascolta il Podcast

You have Successfully Subscribed!