intelligenza artificiale

Colla sulla pizza e sassi a colazione: gli errori dell’AI di Google fanno il giro del web

Google punta tutto sull’Intelligenza artificiale e ha annunciato diverse nuove funzioni per Gemini, la sua intelligenza multimodale, e in questa corsa Google ha introdotto “AI Overviews”, uno strumento progettato per semplificare la ricerca online fornendo agli utenti riassunti immediati. Tuttavia, alcuni risultati hanno fatto sollevare più di un sopracciglio, sono arrivate risposte bizzarre o suggerimenti di  pratiche quanto meno discutibili, quali l’utilizzo di colla sulla pizza o l’integrazione alimentare con rocce, secondo quanto evocato da fonti dubbie come Reddit o The Onion. Insomma, quando Google ha lanciato l’esperienza “AI Overviews” nella ricerca, la promessa di semplificare la navigazione online tramite riassunti generati dall’intelligenza artificiale si è scontrata con una realtà imprevedibile. Le risposte generative, hanno sollevato interrogativi sul futuro dell’IA in ambito di ricerca. Tuttavia, nonostante il tumulto, Google difende il progetto come un esperimento in fase di perfezionamento, sottolineando l’importanza del feedback per migliorare il servizio.

Gli errori dell’Ai di Google

L’esperienza degli utenti con “AI Overviews” ha dimostrato che le risposte dell’intelligenza artificiale possono deviare notevolmente dalla realtà. Dall’indicazione di applicare la colla (non tossica) sulla pizza a suggerire di ingerire rocce come consigliano i geologi o che il pollo vada cotto a soli 38° gradi, passando per l’affermazione che non esista alcun paese in Africa che inizi con la lettera “K”, gli errori dell’IA sono stati vari.

Google si difende sugli errori dell’AI

Google, di fronte alle critiche, ha difeso la nuova funzionalità, focalizzandosi sui casi di successo piuttosto che su quelli isolati di fallimento. L’azienda ha sottolineato come la maggior parte delle “AI overviews” forniscano contenuti affidabili, pur non negando le problematiche evidenziate dagli utenti. La questione mette in luce la sfida di equilibrare innovazione con affidabilità in un ambiente digitale sempre più governato dall’AI.

 

Un passo indietro per riflettere

Non è la prima volta che Google incontra ostacoli nella gestione dell’AI, con precedenti episodi che hanno suscitato perplessità nella comunità online e al di là. La tendenza delle “allucinazioni” di AI non è esclusiva della compagnia ma solleva interrogativi sull’impegno di una delle principali figure del settore tecnologico nell’affrontare tali sfide con serietà.

Errori dell’AI: le implicazioni dell’ai nella ricerca

La vicenda porta alla luce tematiche più ampie riguardanti l’accuratezza delle informazioni, la privacy degli utenti e l’impatto ambientale delle ricerche guidate dall’AI. È cruciale che servizi come Google, pilastri dell’informazione digitale, mantengano un livello di affidabilità elevato per non minare la fiducia dell’utente.
L’introduzione predefinita di “AI Overviews” nella ricerca Google, da cui non si può prescindere, ha sollevato quindi questioni non solo sulla qualità dell’informazione online ma anche sulla responsabilità dei giganti tech nell’orientare l’innovazione verso l’utilità pubblica senza comprometterne l’affidabilità. Il caso di Google ci ricorda che, nella corsa all’intelligenza artificiale, l’entusiasmo per le potenzialità della tecnologia non deve mettere in secondo piano l’importanza della precisione e della trasparenza.
Gli errori commessi da Google con “AI Overviews” servono da promemoria del costante bilanciamento tra l’avanguardia tecnologica e la necessità di offrire un servizio attendibile. La costruzione di un futuro digitale affidabile richiede un dialogo aperto su questi temi, con un’attenzione particolare verso la precisione e la sicurezza delle informazioni fornite dall’intelligenza artificiale. Le imprese pionieristiche come Google hanno non solo l’opportunità ma anche il dovere di guidare con l’esempio, assicurando che l’AI rimanga uno strumento di arricchimento e non che possa trasformarsi anche in una fonte di disinformazione.


Colla sulla pizza e sassi a colazione: gli errori dell’AI di Google fanno il giro del web - Ultima modifica: 2024-05-25T10:48:21+00:00 da Francesco Marino

Giornalista esperto di tecnologia, da oltre 20 anni si occupa di innovazione, mondo digitale, hardware, software e social. È stato direttore editoriale della rivista scientifica Newton e ha lavorato per 11 anni al Gruppo Sole 24 Ore. È il fondatore e direttore responsabile di Digitalic

Recent Posts

Il primo evento di Assodigit: innovazione e networking

Il primo evento ufficiale di Assodigit ha riunito esperti per discutere innovazioni digitali, networking e…

2 giorni ago

Un esame del sangue con intelligenza artificiale aiuta a diagnosticare il morbo di Parkinson

I ricercatori del College londinese di neurologia hanno creato un test del sangue potenziato dall'intelligenza…

4 giorni ago

PartyRock: la nuova piattaforma AI di AWS per la creazione di app

Il servizio cloud AWS di Amazon lancia Partyrock per consentire a tutti di creare delle…

4 giorni ago

Microsoft down: cosa è successo? Il problema nel software CrowdStrike

Il "Blue screen of Death" comparso su milioni di computer con Microsoft Windows, per via…

1 settimana ago

Rapporto SIAE 2023: l’analisi sullo stato dello Spettacolo in Italia

Il Rapporto SIAE 2023 analizza il rilancio post-pandemico dello spettacolo in Italia, evidenziando una crescita…

1 settimana ago

Negli USA si punta sull’energia nucleare per alimentare l’intelligenza artificiale

Alla ricerca di energia per alimentare i data center per l’intelligenza artificiale, le compagnie americane…

2 settimane ago

Digitalic © MMedia Srl

Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135

Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011