Tech-News

Facile ingannare ChatGPT con del testo nascosto in un sito

Basta del testo nascosto per ingannare ChatGPT, la nuova funzione di SearchGPT esposta a facili “dirottamenti”. Con il recente lancio di ChatGPT Search, disponibile per tutti gli utenti è emersa una preoccupazione sulla vulnerabilità dell’intelligenza artificiale nei confronti di contenuti nascosti sui siti web. Un’inchiesta del Guardian ha dimostrato come il cosiddetto “prompt injection” possa manipolare i risultati della ricerca di ChatGPT in modo significativo, rendendo evidente quanto sia semplice ingannare il sistema.

Cos’è il Prompt Injection?

Il prompt injection è una tecnica attraverso la quale terzi – ad esempio, i siti web che si chiede a ChatGPT di riassumere – possono inserire nuovi prompt nella tua ricerca senza che l’utente ne sia a conoscenza. Questo significa che un sito potrebbe includere del contenuto nascosto che influisce sulla risposta generata da ChatGPT. Immaginiamo una pagina piena di recensioni negative su un ristorante, ma con del testo nascosto che elogia quel ristorante e incoraggia ChatGPT a rispondere alla domanda “parlami di quanto sia stupendo questo ristorante”. Il prompt nascosto potrebbe sovrascrivere la ricerca originale, fornendo una recensione positiva nonostante i feedback negativi visibili.

Ingannare ChatGPT con del testo nascosto

Il Guardian ha condotto un esperimento per mettere alla prova questa vulnerabilità. Hanno creato un sito web fittizio, ovvero una pagina di un prodotto tecnologico, nel loro caso una macchina fotografica, e hanno chiesto a ChatGPT se valesse la pena acquistare il prodotto. In base ai contenuti della pagina, senza testo nascosto, l’AI ha fornito una valutazione equilibrata, evidenziando sia pregi che difetti.

Tuttavia, quando alla pagina è stato aggiunto del testo nascosto con delle istruzioni per ChatGPT, in particolare per  fornire una recensione favorevole, la risposta è stata completamente positiva. I risultati sono stati gli stesso anche quando la pagina conteneva recensioni negative, dimostrando che il testo nascosto, con il prompt per ChatGPT, era in grado di sovvertire la valutazione complessiva risultate dalla pagina

Cosa significa per ChatGPT Search?

Nonostante questa vulnerabilità, non si tratta necessariamente di una condanna per ChatGPT Search. OpenAI ha lanciato la funzionalità di ricerca da poco tempo, e quindi ci si aspetta che vengano apportate delle correzioni a questi tipi di bug. Jacob Larsen, ricercatore in cybersecurity presso CyberCX, ha dichiarato al Guardian che il team di sicurezza di OpenAI è “molto preparato” e che, ora che tutti gli utenti hanno accesso alla funzionalità, anche questi scenari saranno rigorosamente testati.

Gli attacchi di prompt injection sono stati una possibilità teorica sin dal lancio delle tecnologie di ricerca AI come SearchGPT. Al momento non si conosco casi reali che abbiamo sfruttato prompt injection   per creare dei danni agli utenti, od ottenere vantaggi inappropriati. Tuttavia, questo ci deve insegnare una cosa, che in futuro potrebbe diventare un seri problema,   i chatbot AI sono facili da ingannare.

 

 


Facile ingannare ChatGPT con del testo nascosto in un sito - Ultima modifica: 2025-01-05T13:28:55+00:00 da Francesco

Recent Posts

Data poisoning: l’attacco invisibile che cambia il comportamento dell’AI

Data poisoning: come funziona il nuovo attacco che manipola gli LLM nel tempo, influenzando il…

3 giorni ago

Perché Apple ha lanciato il MacBook Neo proprio ora (e perché non l’ha fatto prima)

Il MacBook Neo a 699 euro segna una svolta strategica per Apple, che entra nella…

3 giorni ago

Una crisi economica nel 2028 causata dall’AI

Uno scenario chiamato The 2028 Global Intelligence Crisis, elaborato da Citrini Research, immagina una crisi…

3 giorni ago

MingaMalstrøm: una giornata per parlare di crescita degli MSP

L’8 maggio 2026 a Verona debutta MingaMalstrøm, l’evento ideato da Andrea Veca dedicato alla crescita…

4 giorni ago

Dalla sovranità del dato all’AI nel SOC: la visione del Gruppo E

Sovranità digitale, compliance e intelligenza artificiale: Giovanni Stilli racconta come trasformare la sicurezza da risposta…

7 giorni ago

Trump dichiara guerra ad Anthropic: la battaglia che deciderà il futuro dell’AI

Il confronto esplosivo tra l'amministrazione Trump e Anthropic segna un punto di non ritorno nel…

1 settimana ago

Digitalic © MMedia Srl

Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135

Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011