Per gli esseri umani, è facile sia prevedere com’è un oggetto semplicemente guardandolo, sia descriverlo toccandolo; per i robot, tuttavia, si tratta di una grande sfida al giorno d’oggi. Adesso, una nuova macchina sviluppata dal Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT sta tentando di fare proprio questo.
Il team ha preso un braccio robot KUKA e ha aggiunto un sensore tattile chiamato GelSight, creato dal gruppo di Ted Adelson presso il CSAIL. Le informazioni raccolte da GelSight vengono quindi inviate a un’IA in modo da permettere al robot di apprendere la relazione tra informazioni visive e tattili. Per insegnare all’intelligenza artificiale come identificare gli oggetti tramite il tatto, il team ha registrato 12mila video di 200 oggetti tra cui tessuti, attrezzi e utensili domestici mentre vengono toccati. Dai video sono state poi estratte le immagini fisse e l’intelligenza artificiale ha utilizzato questo set di informazioni per connettere dati tattili e visivi.
Yunzhu Li, dottorando presso il CSAIL e autore principale di un nuovo articolo sul robot in questione, ha dichiarato:
Guardando una scena, il nostro modello può immaginare la sensazione di toccare una superficie piatta o un bordo tagliente. Muovendosi alla cieca, inoltre, può prevedere l’interazione con l’ambiente circostante grazie alle sole sensazioni tattili. Mettere insieme vista e tatto potrebbe non solo potenziare il robot, ma anche ridurre i dati di cui potremmo aver bisogno per compiti che implicano la manipolazione e la presa di oggetti.
Per ora, il robot del MIT può solo identificare oggetti in un ambiente controllato. Il passo successivo è quello di creare un set di dati più ampio in modo che possa lavorare in luoghi diversi.