Fake news e spam sono in aumento a causa dei generatori automatici con intelligenza artificiale secondo un’analisi degli esperti del settore.
L’intelligenza artificiale si trova al centro di un boom di interesse e di investimenti. La tecnologia, che ormai può essere usata da chiunque grazie a siti web come ChatGpt e simili, è in grado di rispondere a domande, produrre immagini, creare codice per programmi informatici e analizzare dati numerici. Si possono persino produrre libri sulla base di semplici suggerimenti. L’Ai promette di eliminare le attività ripetitive per gli utenti, tanto che qualcuno ha paragonato il suo arrivo a quello della calcolatrice per la matematica. Oltre alle novità positive apportate a internet, ci sono anche numerose possibilità negative di cui già si iniziano a vedere i danni. Fra spam e fake news, i contenuti generati dall’intelligenza artificiale che rischiano di peggiorare il web si diffondono velocemente.
Il problema AI e fake news
All’inizio di maggio 2023, la società di valutazione dei siti di notizie NewsGuard ha trovato 49 siti web di notizie false che utilizzavano l’intelligenza artificiale per generare contenuti. Alla fine di giugno, secondo Gordon Crovitz, cofondatore dell’azienda, il numero era arrivato a 277 come riporta il quotidiano americano Washington Post. “La crescita è esponenziale”, ha dichiarato Crovitz, che ha spiegato che i siti sembrano essere stati creati per fare soldi attraverso la rete pubblicitaria online di Google. Grazie alla facilità con cui si possono generare testi, le fake news stanno aumentando. ChatGpt, Bard e Bing pongono tutti dei limiti sulle notizie che possono creare e spesso si rifiutano di generare contenuti malevoli, ma le regole si possono aggirare oppure si possono modificare successivamente solo brevi parti di testo. Oltre che negli articoli, l’Ai è usata anche per realizzare video che diventano virali su YouTube nonostante contengano informazioni false o errate. “I contenuti spesso hanno una grammatica e un’ortografia perfette, ma una storia completamente incoerente”, aggiunge Crovitz.
Intelligenza artificiale e spam
I ricercatori sottolineano inoltre la possibilità che le tecnologie con Ai vengano utilizzate per creare email di spam e messaggi mirati per l’hacking. L’azienda di cybersicurezza Zscaler afferma che è troppo presto per dire se l’Ai sia utilizzata dai criminali in modo diffuso, ma si aspetta di vederla impiegata per creare false pagine web di phishing di alta qualità, progettate per indurre le vittime a scaricare software dannoso o a rivelare i loro nomi utente e password online. Grazie ai progressi della tecnologia, gli spammer potrebbero non essere costretti ad affidarsi ad approcci unici o già visti: l’intelligenza artificiale permette loro di rendere i messaggi più persuasivi sulla base di informazioni facilmente accessibili, come i post sui social media degli utenti o i gli account da cui recuperare nominativi.
La rete peggiora
Se internet dovesse riempirsi sempre di più di contenuti generati dall’Ai, come già sta succedendo, potrebbe diventare un problema per le stesse aziende di intelligenza artificiale. Questo perché i loro modelli linguistici di grandi dimensioni, il software che costituisce la base dei chatbot come ChatGpt o Google Bard, si addesta su set di dati pubblici. Quando questi set di dati si riempiono sempre più di contenuti falsi o sbagliati, i ricercatori temono che i modelli linguistici diventino meno utili, un fenomeno noto come collasso del modello. E non sono solo i contenuti di spam a contribuire al collasso dei modelli; secondo gli esperti, anche il crescente utilizzo dell’intelligenza artificiale per generare contenuti causerà un peggioramento dell’offerta del web per via della quantità di pagine prodotte.