Google occhiali AI: il gigante della tecnologia prepara il lancio di due modelli di occhiali intelligenti con integrazione profonda dell’AI di Gemini
Google sta per lanciare una nuova generazione di occhiali basati sull’AI, frutto di una partnership strategica che coinvolge i maggiori player hardware. Questa nuova generazione di smart glasses non è un semplice aggiornamento dei pionieristici Google Glass (il cui insuccesso commerciale e le polemiche sulla privacy ne limitarono l’uso), ma una piattaforma completamente reingegnerizzata attorno al concetto di intelligenza artificiale contestuale.
La strategia di Google si basa su una complessa collaborazione che coinvolge Samsung per il design e l’integrazione, Foxconn per la manifattura e Qualcomm per i chipset, puntando a un rilascio strategico entro il quarto trimestre del 2026.

L’architettura duplice del progetto AI Glasses
Google sta sviluppando un’offerta binaria per coprire diverse fasce di mercato e funzionalità, entrambe basate sull’ecosistema Android XR e sull’intelligenza artificiale Gemini. Una prima versione, denominata AI Glasses, sarà un dispositivo più tradizionale, privo di un display integrato. Similmente ai prodotti già presenti sul mercato, come gli occhiali di Meta e Ray-ban, sfrutterà la dotazione hardware di microfoni, altoparlanti e una telecamera per facilitare l’interazione diretta con l’assistente Gemini. Questo modello si concentrerà sull’assistenza vocale e sulla capacità di rispondere a richieste basate sull’analisi visiva immediata dell’ambiente circostante, con un lancio previsto già nel 2026.
Un altro modello di occhiali AI tecnicamente più ambizioso è quello denominato Display AI Glasses. Questi occhiali integreranno un display in-lens, una soluzione ottica a guida d’onda (waveguide) — potenzialmente supportata dalla tecnologia Micro LED fornita da partner come Porotech tramite Foxconn — che proietterà informazioni in realtà aumentata direttamente nel campo visivo dell’utente, in modo discreto e privato. Le applicazioni chiave di questo modello includono i percorsi su strada, la traduzione automatica con sottotitoli in tempo reale e altre visualizzazioni contestuali avanzate.

L’impianto tecnologico da Gemini a Qualcomm
Il successo dei Display AI Glasses dipenderà interamente dalla sua capacità di elaborazione on-device. L’architettura hardware è incentrata sui chipset Qualcomm, ottimizzati per garantire l’efficienza energetica necessaria ai dispositivi indossabili mantenendo la bassa latenza cruciale per le applicazioni AR. Sul fronte software, il motore è il modello multimodale Gemini, supportato dalle funzionalità di ragionamento visivo e memoria del concept Project Astra. Questa integrazione sposta il dispositivo dal ruolo di semplice visore a quello di agente AI spaziale: gli occhiali non si limitano a visualizzare, ma interpretano attivamente l’ambiente circostante, fornendo output proattivi e pertinenti. La capacità di Gemini di analizzare flussi video e audio in tempo reale è la chiave per offrire assistenza contestuale, differenziando nettamente questi prodotti dai loro predecessori.
L’adozione della piattaforma Android XR assicura che il dispositivo possa attingere all’ampio ecosistema di app e servizi Google, fondamentale per costruire un’offerta di contenuto solida e attraente per il mercato consumer. L’imponente catena di fornitura, che unisce design (Samsung), potenza di calcolo (Qualcomm) e manifattura (Foxconn), posiziona Google per un rilancio significativo e aggressivo nel settore degli occhiali AI, destinato a competere direttamente con le iniziative di Meta e Apple.