Close Menu
  • News
  • Bitcoin
    • Lightning Network
  • Metaversi e NFT
  • Intelligenza Artificiale
  • Approfondimenti
    • Analisi on-chain
    • Layer 2
    • Regolamentazione
    • Trading
  • Tutorial
  • Italiano
  • English
Facebook X (Twitter) Instagram
SEGUICI
BlockWorld.it
  • News
  • Bitcoin
    • Lightning Network
  • Metaversi e NFT
  • Intelligenza Artificiale
  • Approfondimenti
    • Analisi on-chain
    • Layer 2
    • Regolamentazione
    • Trading
  • Tutorial
  • Italiano
  • English
Telegram X (Twitter)
BlockWorld.it
Home » Intelligenza Artificiale » Google presenta gli occhiali intelligenti con intelligenza artificiale

Google presenta gli occhiali intelligenti con intelligenza artificiale

Google ha mostrato a MWC 2026 il suo prototipo di occhiali smart con Android XR: traduzione in tempo reale, videochiamate, navigazione AR e rielaborazione AI delle foto con un solo sguardo.
RedazioneBy Redazione18 Marzo 2026
Telegram Twitter WhatsApp Facebook
CONDIVIDI
Telegram Twitter WhatsApp Facebook

Tredici anni dopo il fallimento di Google Glass, Mountain View ci riprova. E stavolta, a giudicare dal video prototipo condiviso su Reddit dal product lead Dieter Bohn la settimana scorsa, qualcosa di strutturalmente diverso sta emergendo. Non una promessa da palcoscenico, ma una demo funzionante presentata al MWC 2026 di Barcellona, con occhiali indossabili, un singolo display integrato e Gemini 3 che gira in tempo reale sopra il campo visivo dell’utente.​

La scena più rappresentativa del video dura pochi secondi ma vale un paper di analisi. Bohn si trova davanti a un poster di un campo da calcio. Lo guarda. Chiede a voce a Gemini come arrivare allo stadio. Il modello, senza che Bohn abbia digitato niente, senza che abbia aperto un’app, capisce dove vuole andare, identifica la struttura dal visual, e proietta le indicazioni stradali direttamente nel campo visivo. Quando Bohn abbassa lo sguardo, appare automaticamente una mappa. Non è computer use nel senso tradizionale: è ragionamento multimodale contestuale, dove l’input è lo sguardo dell’utente e l’output è la realtà aumentata. È esattamente la promessa degli smart glasses che nessuno era ancora riuscito a mantenere in modo credibile.​​

Le altre funzionalità mostrate nel demo completano un quadro coerente. Traduzione live sovrapposta al campo visivo, videochiamate con contestualizzazione ambientale, riconoscimento di copertine di album seguita dall’apertura automatica di YouTube Music: tutte operazioni che un assistente AI su smartphone esegue già, ma che sugli occhiali cambiano completamente natura perché eliminano l’attrito del “tira fuori il telefono”. Il passaggio più interessante sul fronte creativo è l’integrazione con Nano Banana: Bohn chiede agli occhiali di fotografare le persone davanti a lui e di reimmaginarle davanti alla Sagrada Família di Barcellona. Il modello elabora la foto, contestualizza la richiesta con la location reale, e restituisce un’immagine generata in pochi secondi. È un caso d’uso banale in apparenza, ma segnala un’architettura dove camera, AI generativa e AR sono un’unica pipeline continua, non tre app separate.

Va detto, con onestà, cosa questi occhiali non sono ancora. Bohn lo precisa esplicitamente: si tratta di prototipi, e la versione finale avrà un form factor diverso. Per la demo al MWC erano disponibili dei clip-on per le lenti graduate, una soluzione provvisoria che Google ha già escluso dal prodotto definitivo. Il design attuale è chiaramente “da laboratorio”, non da scaffale.​

Questo, però, è esattamente il momento dove la gara si fa interessante. Perché Gemini 3.1 Pro su un display AR non è lo stesso prodotto che gira su uno smartphone: il contesto sensoriale cambia completamente la proposta di valore. Quando un AI vede quello che vedi tu, in tempo reale, smette di essere uno strumento da consultare e inizia a diventare qualcosa d’altro. Non un assistente che aspetti di interrogare: un interlocutore che ragiona su quello che stai guardando prima ancora che tu abbia finito la domanda.​​

Google ci ha già provato nel 2013 e ha perso. La differenza, oggi, è che i modelli sono all’altezza dell’hardware. Il problema è che lo è anche la concorrenza. E in questa gara, chi arriva secondo con un prodotto migliore spesso scopre che il mercato ha già deciso altrove.

Share. Telegram Twitter WhatsApp Facebook

Potrebbero interessarti anche

Claude Code Review: Anthropic lancia un team di agenti AI per la revisione del codice

12 Marzo 2026

Il Grande Scisma dell’Intelligenza Artificiale: Anthropic Sfida il Pentagono, la Silicon Valley si Divide. L’analisi completa

1 Marzo 2026

Google lancia Gemini 3.1 Pro: il modello AI che raddoppia le capacità di ragionamento e costruisce esperienze interattive dal nulla

24 Febbraio 2026
Telegram X (Twitter)
  • Home
  • Redazione
  • Contattaci
  • Disclaimer
  • Cookie Policy
  • Privacy Policy
  • DYOR
© 2026 BlockWorld.it proprietà di Digital Dreams s.r.l. - Partita IVA: 11885930963 - Sede legale: Via Alberico Albricci 8, 20122 Milano Italy - info@digitaldreams.it

Type above and press Enter to search. Press Esc to cancel.