Glasswing, Daybreak, MDASH: le tre AI che trovano i bug prima degli hacker

Glasswing, Daybreak, MDASH: Anthropic, OpenAI e Microsoft hanno lanciato in cinque settimane tre piattaforme AI per trovare le vulnerabilità software prima degli hacker. Si chiamano Glasswing, Daybreak e MDASH: ecco cosa sono, come funzionano e perché cambiano tutto per chi gestisce infrastrutture IT aziendali


A maggio 2026, Mozilla ha rilasciato Firefox 150. Non sarebbe una notizia enorme, se non fosse per come è stata costruita quella versione: il team ha utilizzato Mythos, il modello di intelligenza artificiale di Anthropic che Anthropic stessa aveva definito “troppo pericoloso per essere messo a disposizione di tutti”. Il risultato è stato un processo di analisi della sicurezza del codice che in passato avrebbe richiesto settimane di lavoro manuale, completato in una frazione di quel tempo. Firefox 150 non è solo un aggiornamento del browser. È la prima dimostrazione pubblica e verificabile di cosa succede quando l’AI sostituisce il penetration tester. Quella data segna un prima e un dopo nella sicurezza informatica aziendale, anche se pochi lo hanno ancora capito.

Glasswing, Daybreak, MDASH: le tre AI che trovano i bug prima degli hacker

Cosa sono le vulnerabilità software e perché l’AI cambia tutto

Per capire perché questa storia conta, serve una premessa breve. Ogni software contiene errori di programmazione. Alcuni di questi errori sono vulnerabilità sfruttabili: difetti che un attaccante può usare per entrare in un sistema, sottrarre dati o bloccare un’infrastruttura. Trovarli prima che lo faccia qualcun altro è il nucleo del lavoro di sicurezza offensiva, quella che si fa per difendersi. Fino a ieri, quel lavoro richiedeva team specializzati, mesi di analisi, budget significativi. L’intelligenza artificiale lo comprime in ore, a volte in minuti.

Glasswing, Daybreak, MDASH: le tre piattaforme AI per la cybersecurity

Anthropic ha avviato la corsa ad aprile con il Project Glasswing e il modello Mythos, disponibile solo a un gruppo ristretto di aziende strategiche. In poche settimane, il caso di Mozilla ha confermato che lo strumento funziona davvero. OpenAI ha risposto l’11 maggio con Daybreak, costruito sui modelli GPT-5.5 e sull’agente Codex Security: il sistema costruisce una mappa dei possibili rischi partendo dal codice sorgente, individua i percorsi di attacco più probabili e automatizza il rilevamento delle vulnerabilità critiche. Oltre venti aziende partner, tra cui Cloudflare e CrowdStrike, sono già coinvolte. L’accesso è ancora selettivo, con un processo di valutazione preliminare riservato alle aziende che ne fanno richiesta.

Microsoft ha chiuso il triangolo con MDASH, che sceglie un’architettura diversa dagli altri due: invece di affidarsi a un unico modello frontier, il sistema coordina una squadra di agenti AI specializzati che si dividono i compiti su porzioni diverse del codice. Secondo i test disponibili, questa architettura distribuita avrebbe già superato sia Mythos sia Daybreak su alcune metriche chiave di rilevamento. Per chi conosce la storia di MAI, il progetto AI proprietario di Microsoft, MDASH si inserisce in una strategia più ampia di riduzione della dipendenza da vendor esterni.

Il primo zero-day creato dall’AI: quando la difesa diventa attacco

Il colpo di scena che completa il quadro arriva dai ricercatori di Google, che nello stesso periodo hanno documentato quello che viene descritto come il primo caso osservato di uno zero-day exploit creato con il supporto dell’AI, collegato a una campagna di attacco pianificata. Zero-day indica una vulnerabilità sconosciuta ai difensori: nessuna patch esiste, nessun sistema di difesa è preparato. L’AI ha trovato il difetto, ha costruito l’exploit, e qualcuno ha tentato di usarlo. È il lato oscuro esatto della stessa medaglia, la conferma che la stessa tecnologia che protegge può attaccare, e che la corsa è già cominciata da entrambe le parti.

OpenAI apre i suoi modelli cyber all’Europa. Anthropic ancora no

La notizia che potrebbe spostare l’asse geopolitico dell’intera vicenda è arrivata l’11 maggio, in parallelo al lancio di Daybreak. OpenAI ha annunciato che avrebbe concesso all’Unione Europea l’accesso al modello GPT-5.5-Cyber, una variante specializzata del suo ultimo modello, mettendolo a disposizione di partner europei: aziende, governi, autorità di cybersecurity e istituzioni comunitarie come l’EU AI Office. Il portavoce della Commissione europea Thomas Regnier ha accolto la notizia con una dichiarazione pubblica inusualmente diretta per i toni diplomatici di Bruxelles: “Con uno avete un’azienda che offre proattivamente l’accesso. Con l’altra abbiamo buone discussioni, ma non siamo in una fase in cui possiamo speculare su un potenziale accesso.”

L’altra è Anthropic. Un mese dopo il debutto di Mythos, la Commissione non aveva ancora ottenuto l’accesso preliminare per esaminarlo. La settimana prima dell’annuncio di OpenAI, Anthropic aveva declinato l’invito a incontrare i membri del Parlamento europeo e i rappresentanti di ENISA, l’agenzia europea per la cybersecurity, citando un preavviso troppo breve. La Commissione ha risposto alzando il tono: il portavoce Regnier ha dichiarato che “una volta che i poteri di enforcement dell’AI Office entreranno in vigore ad agosto 2026, garantiremo di ricevere, se necessario, l’accesso a Mythos”. Una minaccia velata, nella lingua opaca di Bruxelles, è comunque una minaccia.

George Osborne, responsabile del programma OpenAI for Countries, ha presentato alla Commissione e agli Stati membri un piano d’azione che include l’accesso ai modelli più recenti e briefing con i team di sicurezza di OpenAI. Il programma si chiama EU Cyber Action Plan e prevede l’ingresso di decine di aziende europee nel Trusted Access for Cyber: tra i partecipanti figurano già Deutsche Telekom, Telefonica e la banca spagnola BBVA.

La logica strategica di OpenAI è trasparente quanto efficace. Offrendo volontariamente l’accesso al proprio modello cyber più avanzato, OpenAI sta facendo una scommessa calcolata: dimostrare trasparenza e costruire credibilità con i regolatori, guadagnando al contempo influenza su come l’UE classificherà e regolamenterà i sistemi AI con capacità offensive in ambito cyber. Il rischio per Anthropic, in questo scenario, è duplice: restare esclusa dal mercato europeo degli strumenti di vulnerability discovery AI per un periodo significativo, e vedere scritte le linee guida regolatorie europee sulla base dell’esperienza con il modello di un competitor.

GPT-5.5-Cyber è specificamente progettato per identificare falle nel software e simulare intrusioni. Al 1° maggio, GPT-5.5 aveva completato un hack simulato di una rete aziendale completa, diventando solo il secondo sistema AI a riuscirci. Il primo era stato Mythos di Anthropic. Due modelli con capacità simili, due strategie opposte verso l’Europa: una aperta, una chiusa.

Mistral, il laboratorio AI francese, sta lavorando con alcuni istituti bancari europei su un proprio strumento equivalente. La sovranità digitale, di cui si parla spesso in astratto, si misura anche su questo: chi avrà accesso agli strumenti di vulnerability discovery AI più avanzati, e chi dovrà aspettare.

Cosa deve fare oggi un CISO: la nuova postura di sicurezza informatica

Per i responsabili IT che leggono Digitalic, il punto operativo è uno solo: il tempo che separa la scoperta di una vulnerabilità dal suo sfruttamento si è contratto in modo irreversibile. Le policy di divulgazione costruite su finestre di novanta giorni sono già obsolete: con l’AI, un attaccante può trasformare una patch pubblica in un exploit funzionante in meno di trenta minuti. Chi conosce i trend cybersecurity 2026 che abbiamo analizzato a gennaio sa che questa evoluzione era attesa: la cybersecurity proattiva di cui BlueIT ha anticipato la logica non è più un vantaggio competitivo, è il requisito minimo. Chi ha letto il nostro approfondimento sul data poisoning AI capisce quanto sottile sia il confine tra difesa e attacco quando i modelli AI stessi possono diventare un vettore. Chi segue la storia di Anthropic e OpenAI sa che questa corsa non è separabile dalla geopolitica dell’AI.

Il software del futuro andrà analizzato fin dalla prima riga di codice, con la sicurezza integrata nel ciclo di sviluppo come i test automatici o il controllo di versione e non come un progetto separato, non come un audit semestrale: come una funzione continua.


Glasswing, Daybreak, MDASH: le tre AI che trovano i bug prima degli hacker - Ultima modifica: 2026-05-17T10:50:13+00:00 da Francesco Marino

Giornalista esperto di tecnologia, da oltre 20 anni si occupa di innovazione, mondo digitale, hardware, software e social. È stato direttore editoriale della rivista scientifica Newton e ha lavorato per 11 anni al Gruppo Sole 24 Ore. È il fondatore e direttore responsabile di Digitalic

Arduino

Cosa non abbiamo capito dell'AI su lavoro ed economia | Il Nobel Aghion

Philippe Aghion, Nobel per l'Economia 2025, racconta cosa l’Europa non ha ancora capito sull’AI: ci siamo concentrati sull’automazione che porta e non sul potere della ricombinazione di idee esistenti, da cui derivano la maggior parte delle innovazioni.

You have Successfully Subscribed!