L’avvento dell’Assistente Google ha confermato quanto il gruppo di Mountain View stia puntando sullo sviluppo di soluzioni basate sul riconoscimento e l’interpretazione dei comandi vocali. L’iniziativa presentata oggi e chiamata Paper Signals si inserisce appieno in quest’ottica: consente di creare oggetti reali con i quali interagire solo ed esclusivamente utilizzando la voce.
Il progetto ha preso vita all’interno del Creative Lab di bigG e si concretizza con i primi esempi che chiunque può creare: è sufficiente scaricare un file da stampare, armarsi di forbici e poi assemblare il tutto includendo alcune componenti elettroniche per gestire il movimento delle parti. Si dà così vita a un ombrello che si apre quando le previsioni meteo anticipano l’arrivo della pioggia oppure una freccia che ruota di 180 gradi per indicare l’andamento positivo o negativo dell’indice Bitcoin, un timer per il conto alla rovescia oppure un razzo che avvisa quando sta per avvenire un lancio da seguire in diretta. Lato software le informazioni vengono gestite da Actions on Google (che da un paio di settimane ha introdotto il supporto all’italiano) e da Dialogflow, mentre a livello hardware si fa ricorso alla scheda Adafruit e a un microservocomando.
Chi ne ha le competenze può inoltre scaricare il codice sorgente dalla piattaforma Github e modificarlo a piacimento, creando così altri oggetti. Gli ambiti di applicazione sono potenzialmente infiniti. Nella forma in cui Google oggi presenta l’iniziativa si tratta più che altro di un esercizio di stile, utile però a confermare ancora una volta quanto le tecnologie nate all’interno dell’ecosistema mobile siano in grado di estendere il loro raggio d’azione nel mondo reale: si pensi ad esempio all’integrazione di soluzioni basate su intelligenza artificiale e machine learning nelle smart home, nelle smart city o nella Internet of Things.