intelligenza artificiale

Colla sulla pizza e sassi a colazione: gli errori dell’AI di Google fanno il giro del web

Google punta tutto sull’Intelligenza artificiale e ha annunciato diverse nuove funzioni per Gemini, la sua intelligenza multimodale, e in questa corsa Google ha introdotto “AI Overviews”, uno strumento progettato per semplificare la ricerca online fornendo agli utenti riassunti immediati. Tuttavia, alcuni risultati hanno fatto sollevare più di un sopracciglio, sono arrivate risposte bizzarre o suggerimenti di  pratiche quanto meno discutibili, quali l’utilizzo di colla sulla pizza o l’integrazione alimentare con rocce, secondo quanto evocato da fonti dubbie come Reddit o The Onion. Insomma, quando Google ha lanciato l’esperienza “AI Overviews” nella ricerca, la promessa di semplificare la navigazione online tramite riassunti generati dall’intelligenza artificiale si è scontrata con una realtà imprevedibile. Le risposte generative, hanno sollevato interrogativi sul futuro dell’IA in ambito di ricerca. Tuttavia, nonostante il tumulto, Google difende il progetto come un esperimento in fase di perfezionamento, sottolineando l’importanza del feedback per migliorare il servizio.

Gli errori dell’Ai di Google

L’esperienza degli utenti con “AI Overviews” ha dimostrato che le risposte dell’intelligenza artificiale possono deviare notevolmente dalla realtà. Dall’indicazione di applicare la colla (non tossica) sulla pizza a suggerire di ingerire rocce come consigliano i geologi o che il pollo vada cotto a soli 38° gradi, passando per l’affermazione che non esista alcun paese in Africa che inizi con la lettera “K”, gli errori dell’IA sono stati vari.

Google si difende sugli errori dell’AI

Google, di fronte alle critiche, ha difeso la nuova funzionalità, focalizzandosi sui casi di successo piuttosto che su quelli isolati di fallimento. L’azienda ha sottolineato come la maggior parte delle “AI overviews” forniscano contenuti affidabili, pur non negando le problematiche evidenziate dagli utenti. La questione mette in luce la sfida di equilibrare innovazione con affidabilità in un ambiente digitale sempre più governato dall’AI.

 

Un passo indietro per riflettere

Non è la prima volta che Google incontra ostacoli nella gestione dell’AI, con precedenti episodi che hanno suscitato perplessità nella comunità online e al di là. La tendenza delle “allucinazioni” di AI non è esclusiva della compagnia ma solleva interrogativi sull’impegno di una delle principali figure del settore tecnologico nell’affrontare tali sfide con serietà.

Errori dell’AI: le implicazioni dell’ai nella ricerca

La vicenda porta alla luce tematiche più ampie riguardanti l’accuratezza delle informazioni, la privacy degli utenti e l’impatto ambientale delle ricerche guidate dall’AI. È cruciale che servizi come Google, pilastri dell’informazione digitale, mantengano un livello di affidabilità elevato per non minare la fiducia dell’utente.
L’introduzione predefinita di “AI Overviews” nella ricerca Google, da cui non si può prescindere, ha sollevato quindi questioni non solo sulla qualità dell’informazione online ma anche sulla responsabilità dei giganti tech nell’orientare l’innovazione verso l’utilità pubblica senza comprometterne l’affidabilità. Il caso di Google ci ricorda che, nella corsa all’intelligenza artificiale, l’entusiasmo per le potenzialità della tecnologia non deve mettere in secondo piano l’importanza della precisione e della trasparenza.
Gli errori commessi da Google con “AI Overviews” servono da promemoria del costante bilanciamento tra l’avanguardia tecnologica e la necessità di offrire un servizio attendibile. La costruzione di un futuro digitale affidabile richiede un dialogo aperto su questi temi, con un’attenzione particolare verso la precisione e la sicurezza delle informazioni fornite dall’intelligenza artificiale. Le imprese pionieristiche come Google hanno non solo l’opportunità ma anche il dovere di guidare con l’esempio, assicurando che l’AI rimanga uno strumento di arricchimento e non che possa trasformarsi anche in una fonte di disinformazione.


Colla sulla pizza e sassi a colazione: gli errori dell’AI di Google fanno il giro del web - Ultima modifica: 2024-05-25T10:48:21+00:00 da Francesco Marino

Giornalista esperto di tecnologia, da oltre 20 anni si occupa di innovazione, mondo digitale, hardware, software e social. È stato direttore editoriale della rivista scientifica Newton e ha lavorato per 11 anni al Gruppo Sole 24 Ore. È il fondatore e direttore responsabile di Digitalic

Recent Posts

La Cina dimostra la sua superiorità robotica

Al Gala del Festival di Primavera 2026, la CCTV ha trasformato il più grande spettacolo…

12 ore ago

Zyxel 2026: il ritorno alle origini che guarda al futuro della microimpresa e della cybersecurity

Zyxel ha presentato la strategia 2026 puntando su ritorno alle origini, crescita del canale, cybersecurity…

4 giorni ago

Stefania Constantini sbanca sui social: come la campionessa di curling ha vinto anche l’oro su Instagram

Stefania Constantini domina non solo sul ghiaccio ma anche su Instagram: quasi 200.000 follower guadagnati…

1 settimana ago

“Il mondo è in pericolo”: le dimissioni che scuotono il mondo dell’AI

Mrinank Sharma, il responsabile della sicurezza AI dell’azienda di intelligenza artificiale Anthropic, quella che produce,…

1 settimana ago

Gruppo E e HWG Sababa : la cybersecurity diventa infrastruttura strategica

Difesa cyber, infrastrutture complesse e intelligenza artificiale: nasce un modello integrato per proteggere settori mission-critical…

1 settimana ago

NTT Data 2026 Global AI Report: cosa fanno i leader con l’Ai

Lo studio NTT Data 2026 Global AI Report rivela che l’adozione dell’AI spinge la crescita:…

2 settimane ago

Digitalic © MMedia Srl

Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135

Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011