Tredici anni dopo il fallimento di Google Glass, Mountain View ci riprova. E stavolta, a giudicare dal video prototipo condiviso su Reddit dal product lead Dieter Bohn la settimana scorsa, qualcosa di strutturalmente diverso sta emergendo. Non una promessa da palcoscenico, ma una demo funzionante presentata al MWC 2026 di Barcellona, con occhiali indossabili, un singolo display integrato e Gemini 3 che gira in tempo reale sopra il campo visivo dell’utente.
La scena più rappresentativa del video dura pochi secondi ma vale un paper di analisi. Bohn si trova davanti a un poster di un campo da calcio. Lo guarda. Chiede a voce a Gemini come arrivare allo stadio. Il modello, senza che Bohn abbia digitato niente, senza che abbia aperto un’app, capisce dove vuole andare, identifica la struttura dal visual, e proietta le indicazioni stradali direttamente nel campo visivo. Quando Bohn abbassa lo sguardo, appare automaticamente una mappa. Non è computer use nel senso tradizionale: è ragionamento multimodale contestuale, dove l’input è lo sguardo dell’utente e l’output è la realtà aumentata. È esattamente la promessa degli smart glasses che nessuno era ancora riuscito a mantenere in modo credibile.
Le altre funzionalità mostrate nel demo completano un quadro coerente. Traduzione live sovrapposta al campo visivo, videochiamate con contestualizzazione ambientale, riconoscimento di copertine di album seguita dall’apertura automatica di YouTube Music: tutte operazioni che un assistente AI su smartphone esegue già, ma che sugli occhiali cambiano completamente natura perché eliminano l’attrito del “tira fuori il telefono”. Il passaggio più interessante sul fronte creativo è l’integrazione con Nano Banana: Bohn chiede agli occhiali di fotografare le persone davanti a lui e di reimmaginarle davanti alla Sagrada Família di Barcellona. Il modello elabora la foto, contestualizza la richiesta con la location reale, e restituisce un’immagine generata in pochi secondi. È un caso d’uso banale in apparenza, ma segnala un’architettura dove camera, AI generativa e AR sono un’unica pipeline continua, non tre app separate.
Va detto, con onestà, cosa questi occhiali non sono ancora. Bohn lo precisa esplicitamente: si tratta di prototipi, e la versione finale avrà un form factor diverso. Per la demo al MWC erano disponibili dei clip-on per le lenti graduate, una soluzione provvisoria che Google ha già escluso dal prodotto definitivo. Il design attuale è chiaramente “da laboratorio”, non da scaffale.
Questo, però, è esattamente il momento dove la gara si fa interessante. Perché Gemini 3.1 Pro su un display AR non è lo stesso prodotto che gira su uno smartphone: il contesto sensoriale cambia completamente la proposta di valore. Quando un AI vede quello che vedi tu, in tempo reale, smette di essere uno strumento da consultare e inizia a diventare qualcosa d’altro. Non un assistente che aspetti di interrogare: un interlocutore che ragiona su quello che stai guardando prima ancora che tu abbia finito la domanda.
Google ci ha già provato nel 2013 e ha perso. La differenza, oggi, è che i modelli sono all’altezza dell’hardware. Il problema è che lo è anche la concorrenza. E in questa gara, chi arriva secondo con un prodotto migliore spesso scopre che il mercato ha già deciso altrove.



