Lo scorso anno Google ha introdotto Project Soli, il concept di un hardware miniaturizzato pensato per interagire in maniera smart con i device attraverso gesture intuitive, senza alcun contatto fisico. Pochi mesi fa, invece, in occasione dell’evento I/O 2016, il gruppo di Mountain View ha manifestato l’intenzione di integrare la tecnologia all’interno di uno smartwatch (o comunque di un indossabile)
Trattandosi di un’innovazione aperta al contributo di terze parti, Soli è ora alla base di RadarCat. Si tratta di un dispositivo messo a punto da un team di ricercatori della University of St. Andrews (Scozia), in grado di identificare qualsiasi oggetto semplicemente appoggiandolo sulla sua superficie. Il filmato in streaming di seguito offre una dimostrazione pratica del sistema (la parte più interessante inizia a 00:30 circa). Posizionando una mela o un’arancia è in grado di distinguere un frutto dall’altro, così come di riconoscere un modello di smartphone da un tablet e persino se si tratta della parte frontale o di quella posteriore. Ancora, il device identifica un bicchiere vuoto distinguendolo da uno pieno e indicando persino la tipologia di liquido o bevanda contenuti.
Il funzionamento si basa sul sensore Soli di Google e su un software sviluppato appositamente. Il riconoscimento degli oggetti avviene in tempo reale e con una precisione molto elevata. Una tecnologia di questo tipo potrebbe essere un giorno impiegata, ad esempio, per aiutare le persone a calibrare in modo ottimale la loro dieta fornendo informazioni sull’apporto nutrizionale dei cibi semplicemente appoggiandoli su una superficie, a supporto degli ipovedenti per distinguere i prodotti in un supermercato, attivando interfacce diverse sullo smartphone a seconda se si impugna il dispositivo con o senza guanti, nonché per applicazioni creative e molto altro ancora. Le potenzialità sono enormi e di certo non mancherà occasione per esplorarle.