Google Lens ha fatto il suo debutto lo scorso anno con un obiettivo ben preciso: aiutare gli utenti a ottenere informazioni relative al mondo che li circonda, impiegando un complesso sistema di intelligenza artificiale per identificare pressoché qualsiasi cosa inquadrata con la fotocamera dello smartphone. Una tecnologia pronta a compiere un passo in avanti, come spiegato sul palco dell’evento I/O 2018.
La novità più interessante riguarda l’estensione del suo raggio d’azione oltre i device della linea Pixel, con la compatibilità annunciata per smartphone prodotti da LG, Motorola, Xiaomi, Sony, HMD/Nokia, Transsion, TCL, OnePlus, BQ e ASUS. L’integrazione di Lens con l’Assistente Google e con la piattaforma Google Foto ha permesso fino ad oggi di rispondere a domande come “Che razza di cane è questa?” oppure “Come si chiama questo edificio?”, ma entro le prossime settimane le sue potenzialità verranno notevolmente incrementate.
Sarà in grado di fungere in modo simile a un sistema OCR, interpretando un qualsiasi testo inquadrato, ad esempio il menu di un ristorante oppure un documento cartaceo. In questo modo Lens non solo riconoscerà caratteri e parole, ma fornirà di conseguenza un accesso rapido ad informazioni contestuali. Di seguito un esempio piuttosto chiaro: puntando la fotocamera sul menu è possibile conoscere gli ingredienti di ogni piatto.

Google Lens: informazioni sui piatti elencati in un menu
Style Match è invece la feature che consente di ottenere suggerimenti ad esempio sui capi di abbigliamento appartenenti a un determinato stile, semplicemente inquadrandone uno. Lo stesso vale per gli oggetti dell’arredamento e così via.

Google Lens: Style Match
Ancora, Lens è in grado di analizzare in tempo reale tutto ciò che viene osservato attraverso la fotocamera, fornendo informazioni in modo immediato. Ciò è reso possibile dall’esecuzione di operazioni in locale, all’interno del dispositivo, in sincronia con gli algoritmi gestiti da remoto attraverso le TPU (Tensor Processing Unit) di Google. Sul palco dell’I/O 2018 è stato mostrato un esempio in cui inquadrando il poster di un concerto parte la riproduzione di un video musicale in streaming da YouTube.

Google Lens: l’analisi del mondo in tempo reale