Tech-News

L’intelligenza artificiale sta già peggiorando il web

L’intelligenza artificiale si trova al centro di un boom di interesse e di investimenti. La tecnologia, che ormai può essere usata da chiunque grazie a siti web come ChatGpt e simili, è in grado di rispondere a domande, produrre immagini, creare codice per programmi informatici e analizzare dati numerici. Si possono persino produrre libri sulla base di semplici suggerimenti. L’Ai promette di eliminare le attività ripetitive per gli utenti, tanto che qualcuno ha paragonato il suo arrivo a quello della calcolatrice per la matematica. Oltre alle novità positive apportate a internet, ci sono anche numerose possibilità negative di cui già si iniziano a vedere i danni. Fra spam e fake news, i contenuti generati dall’intelligenza artificiale che rischiano di peggiorare il web si diffondono velocemente.

Il problema AI e fake news

All’inizio di maggio 2023, la società di valutazione dei siti di notizie NewsGuard ha trovato 49 siti web di notizie false che utilizzavano l’intelligenza artificiale per generare contenuti. Alla fine di giugno, secondo Gordon Crovitz, cofondatore dell’azienda, il numero era arrivato a 277 come riporta il quotidiano americano Washington Post. “La crescita è esponenziale”, ha dichiarato Crovitz, che ha spiegato che i siti sembrano essere stati creati per fare soldi attraverso la rete pubblicitaria online di Google. Grazie alla facilità con cui si possono generare testi, le fake news stanno aumentando. ChatGpt, Bard e Bing pongono tutti dei limiti sulle notizie che possono creare e spesso si rifiutano di generare contenuti malevoli, ma le regole si possono aggirare oppure si possono modificare successivamente solo brevi parti di testo. Oltre che negli articoli, l’Ai è usata anche per realizzare video che diventano virali su YouTube nonostante contengano informazioni false o errate. “I contenuti spesso hanno una grammatica e un’ortografia perfette, ma una storia completamente incoerente”, aggiunge Crovitz.

Intelligenza artificiale e spam

I ricercatori sottolineano inoltre la possibilità che le tecnologie con Ai vengano utilizzate per creare email di spam e messaggi mirati per l’hacking. L’azienda di cybersicurezza Zscaler afferma che è troppo presto per dire se l’Ai sia utilizzata dai criminali in modo diffuso, ma si aspetta di vederla impiegata per creare false pagine web di phishing di alta qualità, progettate per indurre le vittime a scaricare software dannoso o a rivelare i loro nomi utente e password online. Grazie ai progressi della tecnologia, gli spammer potrebbero non essere costretti ad affidarsi ad approcci unici o già visti: l’intelligenza artificiale permette loro di rendere i messaggi più persuasivi sulla base di informazioni facilmente accessibili, come i post sui social media degli utenti o i gli account da cui recuperare nominativi.

La rete peggiora

Se internet dovesse riempirsi sempre di più di contenuti generati dall’Ai, come già sta succedendo, potrebbe diventare un problema per le stesse aziende di intelligenza artificiale. Questo perché i loro modelli linguistici di grandi dimensioni, il software che costituisce la base dei chatbot come ChatGpt o Google Bard, si addesta su set di dati pubblici. Quando questi set di dati si riempiono sempre più di contenuti falsi o sbagliati, i ricercatori temono che i modelli linguistici diventino meno utili, un fenomeno noto come collasso del modello. E non sono solo i contenuti di spam a contribuire al collasso dei modelli; secondo gli esperti, anche il crescente utilizzo dell’intelligenza artificiale per generare contenuti causerà un peggioramento dell’offerta del web per via della quantità di pagine prodotte.


L’intelligenza artificiale sta già peggiorando il web - Ultima modifica: 2023-07-23T12:23:51+00:00 da Andrea Indiano

Giornalista con la passione per il cinema e le innovazioni, attento alle tematiche ambientali, ha vissuto per anni a Los Angeles da dove ha collaborato con diverse testate italiane. Ha studiato a Venezia e in Giappone, autore dei libri "Hollywood Noir" e "Settology".

Recent Posts

Nextcloud e sovranità digitale: Karlitschek spiega perché l’Europa ha già tutto, tranne il coraggio

Frank Karlitschek, fondatore di Nextcloud, spiega perché l'Europa ha già tecnologia, competenze e capitali per…

4 giorni ago

Gruppo E: infrastruttura, sicurezza e AI insieme

Stefano Zingoni e Giovanni Stilli, soci di Ergon capofila del Gruppo E, raccontano come l'intelligenza…

4 giorni ago

Processo Musk contro OpenAI, arriva il Dossier Sutskever: le 52 pagine che riaprono il caso Sam Altman

Nel Processo Musk contro OpenAI riemerge il Dossier Sutskever, 52 pagine di accuse interne che…

6 giorni ago

Anthropic affitta i datacenter da Musk: la fame di AI va nello spazio

Anthropic affitta tutta la capacità del data center Colossus 1 di SpaceX a Memphis: oltre…

6 giorni ago

Cloudflare licenzia 1.100 persone e annuncia una crescita del 34%, la spietata legge dell’AI-Agentic First

Cloudflare licenzia il 20% del personale perchè ha introdotto l'AI-Agentica, una spietata nuova efficienza algoritmica…

7 giorni ago

Il Nobel Philippe Aghion: “L’AI vale più di un punto percentuale di PIL all’anno. Distruggerà lavori, ma ne creerà molti di più: ecco perché”

Al Brussels Economic Forum il premio Nobel per l'Economia 2025 Philippe Aghion smonta il pessimismo…

1 settimana ago

Digitalic © MMedia Srl

Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135

Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011