intelligenza artificiale

Colla sulla pizza e sassi a colazione: gli errori dell’AI di Google fanno il giro del web

Google punta tutto sull’Intelligenza artificiale e ha annunciato diverse nuove funzioni per Gemini, la sua intelligenza multimodale, e in questa corsa Google ha introdotto “AI Overviews”, uno strumento progettato per semplificare la ricerca online fornendo agli utenti riassunti immediati. Tuttavia, alcuni risultati hanno fatto sollevare più di un sopracciglio, sono arrivate risposte bizzarre o suggerimenti di  pratiche quanto meno discutibili, quali l’utilizzo di colla sulla pizza o l’integrazione alimentare con rocce, secondo quanto evocato da fonti dubbie come Reddit o The Onion. Insomma, quando Google ha lanciato l’esperienza “AI Overviews” nella ricerca, la promessa di semplificare la navigazione online tramite riassunti generati dall’intelligenza artificiale si è scontrata con una realtà imprevedibile. Le risposte generative, hanno sollevato interrogativi sul futuro dell’IA in ambito di ricerca. Tuttavia, nonostante il tumulto, Google difende il progetto come un esperimento in fase di perfezionamento, sottolineando l’importanza del feedback per migliorare il servizio.

Gli errori dell’Ai di Google

L’esperienza degli utenti con “AI Overviews” ha dimostrato che le risposte dell’intelligenza artificiale possono deviare notevolmente dalla realtà. Dall’indicazione di applicare la colla (non tossica) sulla pizza a suggerire di ingerire rocce come consigliano i geologi o che il pollo vada cotto a soli 38° gradi, passando per l’affermazione che non esista alcun paese in Africa che inizi con la lettera “K”, gli errori dell’IA sono stati vari.

Google si difende sugli errori dell’AI

Google, di fronte alle critiche, ha difeso la nuova funzionalità, focalizzandosi sui casi di successo piuttosto che su quelli isolati di fallimento. L’azienda ha sottolineato come la maggior parte delle “AI overviews” forniscano contenuti affidabili, pur non negando le problematiche evidenziate dagli utenti. La questione mette in luce la sfida di equilibrare innovazione con affidabilità in un ambiente digitale sempre più governato dall’AI.

 

Un passo indietro per riflettere

Non è la prima volta che Google incontra ostacoli nella gestione dell’AI, con precedenti episodi che hanno suscitato perplessità nella comunità online e al di là. La tendenza delle “allucinazioni” di AI non è esclusiva della compagnia ma solleva interrogativi sull’impegno di una delle principali figure del settore tecnologico nell’affrontare tali sfide con serietà.

Errori dell’AI: le implicazioni dell’ai nella ricerca

La vicenda porta alla luce tematiche più ampie riguardanti l’accuratezza delle informazioni, la privacy degli utenti e l’impatto ambientale delle ricerche guidate dall’AI. È cruciale che servizi come Google, pilastri dell’informazione digitale, mantengano un livello di affidabilità elevato per non minare la fiducia dell’utente.
L’introduzione predefinita di “AI Overviews” nella ricerca Google, da cui non si può prescindere, ha sollevato quindi questioni non solo sulla qualità dell’informazione online ma anche sulla responsabilità dei giganti tech nell’orientare l’innovazione verso l’utilità pubblica senza comprometterne l’affidabilità. Il caso di Google ci ricorda che, nella corsa all’intelligenza artificiale, l’entusiasmo per le potenzialità della tecnologia non deve mettere in secondo piano l’importanza della precisione e della trasparenza.
Gli errori commessi da Google con “AI Overviews” servono da promemoria del costante bilanciamento tra l’avanguardia tecnologica e la necessità di offrire un servizio attendibile. La costruzione di un futuro digitale affidabile richiede un dialogo aperto su questi temi, con un’attenzione particolare verso la precisione e la sicurezza delle informazioni fornite dall’intelligenza artificiale. Le imprese pionieristiche come Google hanno non solo l’opportunità ma anche il dovere di guidare con l’esempio, assicurando che l’AI rimanga uno strumento di arricchimento e non che possa trasformarsi anche in una fonte di disinformazione.


Colla sulla pizza e sassi a colazione: gli errori dell’AI di Google fanno il giro del web - Ultima modifica: 2024-05-25T10:48:21+00:00 da Francesco Marino

Giornalista esperto di tecnologia, da oltre 20 anni si occupa di innovazione, mondo digitale, hardware, software e social. È stato direttore editoriale della rivista scientifica Newton e ha lavorato per 11 anni al Gruppo Sole 24 Ore. È il fondatore e direttore responsabile di Digitalic

Recent Posts

La vanità dell’AI

L'intelligenza artificiale, spinta anche dalla vanità, offre oggi grandi opportunità per le PMI, ma solleva…

2 giorni ago

Jet Zero: la NASA prepara gli aeromobili sostenibili

Tecnologie innovative per un'aviazione a zero emissioni, la NASA finanzia degli studi per progettare l’aereo…

2 giorni ago

Cos’è Amazon Nova e come funziona la nuova AI

Amazon Nova, l'AI di Amazon tra innovazione e responsabilità, i nuovi modelli fondativi di Amazon…

2 giorni ago

WALLET IT: come funzionano i documenti digitali con valore legale

WALLET IT, integrato nell'app IO, trasforma lo smartphone in un portafoglio di documenti digitali. Permette…

2 giorni ago

Festival AI: dove inizia il viaggio nell’intelligenza artificiale

Il Festival AI 2025 è un evento unico, non è solo una vetrina tecnologica, ma…

5 giorni ago

Il futuro dell’AI per il settore assicurativo passa da RGI

L’AI sta trasformando il settore assicurativo con la personalizzazione del marketing e l’analisi dei dati.…

3 settimane ago

Digitalic © MMedia Srl

Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135

Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011