intelligenza artificiale

Colla sulla pizza e sassi a colazione: gli errori dell’AI di Google fanno il giro del web

Google punta tutto sull’Intelligenza artificiale e ha annunciato diverse nuove funzioni per Gemini, la sua intelligenza multimodale, e in questa corsa Google ha introdotto “AI Overviews”, uno strumento progettato per semplificare la ricerca online fornendo agli utenti riassunti immediati. Tuttavia, alcuni risultati hanno fatto sollevare più di un sopracciglio, sono arrivate risposte bizzarre o suggerimenti di  pratiche quanto meno discutibili, quali l’utilizzo di colla sulla pizza o l’integrazione alimentare con rocce, secondo quanto evocato da fonti dubbie come Reddit o The Onion. Insomma, quando Google ha lanciato l’esperienza “AI Overviews” nella ricerca, la promessa di semplificare la navigazione online tramite riassunti generati dall’intelligenza artificiale si è scontrata con una realtà imprevedibile. Le risposte generative, hanno sollevato interrogativi sul futuro dell’IA in ambito di ricerca. Tuttavia, nonostante il tumulto, Google difende il progetto come un esperimento in fase di perfezionamento, sottolineando l’importanza del feedback per migliorare il servizio.

Gli errori dell’Ai di Google

L’esperienza degli utenti con “AI Overviews” ha dimostrato che le risposte dell’intelligenza artificiale possono deviare notevolmente dalla realtà. Dall’indicazione di applicare la colla (non tossica) sulla pizza a suggerire di ingerire rocce come consigliano i geologi o che il pollo vada cotto a soli 38° gradi, passando per l’affermazione che non esista alcun paese in Africa che inizi con la lettera “K”, gli errori dell’IA sono stati vari.

Google si difende sugli errori dell’AI

Google, di fronte alle critiche, ha difeso la nuova funzionalità, focalizzandosi sui casi di successo piuttosto che su quelli isolati di fallimento. L’azienda ha sottolineato come la maggior parte delle “AI overviews” forniscano contenuti affidabili, pur non negando le problematiche evidenziate dagli utenti. La questione mette in luce la sfida di equilibrare innovazione con affidabilità in un ambiente digitale sempre più governato dall’AI.

 

Un passo indietro per riflettere

Non è la prima volta che Google incontra ostacoli nella gestione dell’AI, con precedenti episodi che hanno suscitato perplessità nella comunità online e al di là. La tendenza delle “allucinazioni” di AI non è esclusiva della compagnia ma solleva interrogativi sull’impegno di una delle principali figure del settore tecnologico nell’affrontare tali sfide con serietà.

Errori dell’AI: le implicazioni dell’ai nella ricerca

La vicenda porta alla luce tematiche più ampie riguardanti l’accuratezza delle informazioni, la privacy degli utenti e l’impatto ambientale delle ricerche guidate dall’AI. È cruciale che servizi come Google, pilastri dell’informazione digitale, mantengano un livello di affidabilità elevato per non minare la fiducia dell’utente.
L’introduzione predefinita di “AI Overviews” nella ricerca Google, da cui non si può prescindere, ha sollevato quindi questioni non solo sulla qualità dell’informazione online ma anche sulla responsabilità dei giganti tech nell’orientare l’innovazione verso l’utilità pubblica senza comprometterne l’affidabilità. Il caso di Google ci ricorda che, nella corsa all’intelligenza artificiale, l’entusiasmo per le potenzialità della tecnologia non deve mettere in secondo piano l’importanza della precisione e della trasparenza.
Gli errori commessi da Google con “AI Overviews” servono da promemoria del costante bilanciamento tra l’avanguardia tecnologica e la necessità di offrire un servizio attendibile. La costruzione di un futuro digitale affidabile richiede un dialogo aperto su questi temi, con un’attenzione particolare verso la precisione e la sicurezza delle informazioni fornite dall’intelligenza artificiale. Le imprese pionieristiche come Google hanno non solo l’opportunità ma anche il dovere di guidare con l’esempio, assicurando che l’AI rimanga uno strumento di arricchimento e non che possa trasformarsi anche in una fonte di disinformazione.


Colla sulla pizza e sassi a colazione: gli errori dell’AI di Google fanno il giro del web - Ultima modifica: 2024-05-25T10:48:21+00:00 da Francesco Marino

Giornalista esperto di tecnologia, da oltre 20 anni si occupa di innovazione, mondo digitale, hardware, software e social. È stato direttore editoriale della rivista scientifica Newton e ha lavorato per 11 anni al Gruppo Sole 24 Ore. È il fondatore e direttore responsabile di Digitalic

Recent Posts

Frank Gramuglia: come la vita d’ufficio è diventata di moda sui social

Dai video di Frank Gramuglia all'hashtag #corporate, le vite dei dipendenti in ufficio sono nel…

11 ore ago

AI Accelerator: l’innovazione collaborativa di BlueIT che semplifica il viaggio verso l’AI

BlueIT rivoluziona l'approccio delle imprese all'intelligenza artificiale, offrendo metodologie pratiche, laboratori sperimentali, una community espansa,…

3 giorni ago

Sicurezza nel cloud: le sfide e le strategie per le aziende e i rivenditori

Le aziende fronteggiano sfide crescenti nella sicurezza con l’adozione di soluzioni ibride e multi-cloud. Centralizzare…

4 giorni ago

Maven, il nuovo social network senza like e con intelligenza artificiale

Un ex dipendente di OpenAI ha lanciato la piattaforma Maven che promette di essere un…

5 giorni ago

Le notizie sui social sono un disastro: lo studio di Pew

Notizie sui social: lo studio di Pew mette in luce la difficoltà di trovare notizie…

5 giorni ago

Luma AI rivoluziona la produzione video con Dream Machine

Luma AI presenta Dream Machine, un sistema IA che trasforma testi in video. Rivolge a…

5 giorni ago

Digitalic © MMedia Srl

Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135

Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011