Scoprire i deepfake, ovvero se un video è vero oppure falso, realizzato grazie all’AI: gli scienziati di Singapore hanno realizzato un modello di intelligenza artificiale per rilevare deepfake con un livello di precisione del 98%.
Un nuovo progetto di intelligenza artificiale realizzato a Singapore permetterà di riconoscere i deepfake con un margine di errore minimo. Un gruppo di studiosi capitanato dal ricercatore singaporiano Wang Weimin ha battuto altri 469 team da tutto il mondo in una sfida durata cinque mesi per sviluppare il miglior modello di Artificial Intelligence in grado di rilevare i video deepfake. Con questo termine si intendono i filmati alterati digitalmente, spesso tramite l’utilizzo di intelligenza artificiale, in cui il viso, la voce e altre caratteristiche uniche di una persona vengono aggiunte al corpo di un altro individuo. Ora la stessa tecnologia AI verrà utilizzata per smascherare i filmati falsi e limitarne la diffusione.
I pericoli dei deepfake
I principali metodi di machine learning e intelligenza artificiale utilizzati per creare deepfake si basano sul deep learning e coinvolgono l’addestramento di architetture di reti neurali generative. I deepfake sono reputati pericolosi perchè i filmati alterati digitalmente possono essere usati per promuovere video di politici che rilanciano fake news; per la creazione di materiale pedopornografico, video pornografici di celebrità, revenge porn; nonché per bullismo online e frode finanziaria. Al fine di rilevarli e limitarne il loro utilizzo, nel mondo si stanno svolgendo vari test e concorsi con lo scopo di trovare un programma in grado di riconoscere i deepfake. Il modello del team di Wang è accurato al 98,53% nel distinguere le clip autentiche da quelle che presentano volti o voci manipolati digitalmente.
Smascherare i deepfake con ByteDance
Il programma di Wang potrà essere usato a breve da un colosso della tecnologia: l’azienda cinese ByteDance, proprietaria di TikTok. Wang infatti lavora proprio per la ditta con sede a Pechino. Lo studioso ha detto che spera di incorporare la novità nel progetto BytePlus della sua azienda e offrire il rilevamento dei deepfake come servizio ai suoi clienti. “Buono o cattivo, il deepfake è una tecnologia emergente che semplicemente non si può ignorare” ha affermato Wang, aggiungendo di aver deciso di partecipare perché le sfide prevalenti che i media devono affrontare sono allineate con i suoi interessi di ricerca e ha un forte interesse per risolvere i problemi del mondo reale costruendo prodotti di intelligenza artificiale. “Ciò consentirà alle persone di identificare e fermare la diffusione di applicazioni AI non etiche e dannose e visualizzare invece i media che sono stati autenticati” ha aggiunto.
Video deepfake dei politici
“I concorrenti hanno preso parte alla sfida per sensibilizzare l’opinione pubblica” hanno affermato gli organizzatori della sfida che si è svolta a Singapore. Durante la premiazione, come riportano i media asiatici presenti all’evento, sono stati mostrati e citati come esempio alcuni video deepfake degli ultimi mesi. Fra questi, un filmato falsificato che mostrava la presidente della Camera degli Stati Uniti Nancy Pelosi che non riusciva a parlare durante un discorso in pubblico e appariva intossicata. Milioni di persone hanno visualizzato il video falso prima che le piattaforme lo rimuovessero. Di recente, alcuni messaggi di propaganda deepfake con filmati alterati del presidente ucraino Volodymyr Zelensky e del presidente russo Vladimir Putin sono stati diffusi online durante la guerra Russia-Ucraina. Le reazioni negative che gli utenti possono avere dopo aver visto dei prodotti deepfake potranno essere quindi limitate grazie al programma con AI realizzato da Wang. Grazie ad esso, un software riconoscerà in pochi secondi una clip alterata e ne bloccherà la pubblicazione.