Il giorno dell’apertura del Google I/O, la conferenza dedicata agli sviluppatori, riserva sempre grandi sorprese. Oggi, ha svelato nuove funzionalità per Lens, il suo strumento di ricerca visiva introdotto anche in Italia la scorsa estate.
Grazie ad un importante update, che poggia sugli algoritmi di riconoscimento avanzato anche tramite intelligenza artificiale, Lens può adesso analizzare piante, animali, testi, personaggi famosi e oltre 1 miliardo di articoli di shopping. Molte delle innovazioni fanno uso della realtà aumentata, un trend che la compagnia di Mountain View pare voler seguire con maggiore convinzione nel prossimo futuro.
Tat’è vero che puntando lo smartphone verso un menu in ristoranti e locali supportati, Google Lens sarà in grado di mettere in risalto i pasti migliori, quelli maggiormente consigliati o indicati per l’utente di riferimento, magari un vegano o un amante della pasta, quando un domani i sistemi saranno del tutto ottimizzati e personalizzati in base alle proprie esigenze (ossia, in base alla propria cronologia di ricerca e attività degli account connessi).
La storia di Lens, pur non cominciata nel migliore dei modi si è poi rivelata vincente, almeno in ottica lungimirante. L’app è apparsa per la prima volta come caratteristica esclusiva degli smartphone Pixel e poi si è diffusa come integrazione di Google Foto, anche in maniera nativa nelle applicazioni Camera di telefonini di aziende partner, tra cui Sony (tralasciamo il mancato successo della serie Xperia però). Per quanto innovativa possa sembrare, Lens non è certamente perfetta e il keynote di oggi lo ha dimostrato. In modo particolare, il riconoscimento del testo necessita di maggiore precisione e accuratezza e anche nel momento in cui l’IA si accinge a individuare certi oggetti può sbagliarsi: erbacce per piante e alberi o piccoli cani di razza per gatti. Ma siamo all’inizio e la pignoleria, in questo settore, non ha mai portato lontano.