«Le nuove tecnologie stanno modificando il modo in cui le persone comunicano mediante i gesti delle mani e il linguaggio del corpo mentre ai segni tradizionali si affiancano nuovi gesti basati sui moderni comandi digitali»: è questa la conclusione a cui è giunta una ricerca HP finalizzata all’identificazione del ruolo dei gesti come elemento complementare e collaterale del linguaggio umano.
L’idea di base è quella per cui, nel momento in cui l’utente inizia ad interagire con le macchine utilizzando i movimenti del corpo, è fondamentale capire quale sia il ruolo di tale gestualità, quanto sia naturale il gesto e quanto siano quindi istintivi il suo uso e la sua comprensione. Se il gesto è utilizzato in modo naturale, infatti, implica un minor dispiego di concentrazione da parte dell’utente e rende l’interazione migliore, più fluida ed efficace.
Storicamente il gesto ha avuto una funzione complementare rispetto al linguaggio verbale: dove la parola non arriva (per difficoltà di comprensione, differenza di codice linguistico o necessità di enfasi), può arrivare una certa posizione delle dita, un movimento della mano o le semplici sfumature che la prossemia aggiunge al contesto. Mentre tale ruolo è destinato a rimanere intatto all’interno dei codici comunicativi tra le persone, viene ad emergere però anche un linguaggio gestuale tra uomo e macchina, qualcosa che va necessariamente compreso poiché non nasce in modo naturale, ma in modo strettamente interconnesso al progetto delle nuove interfacce e delle nuove modalità di interazione.
La ricerca è stata estesa a 6000 persone in tutta Europa chiedendo a queste ultime di identificare 9 azioni:
Le prime tre si riferivano a gesti tradizionali della quotidianità, tra cui unire pollice e indice in un anello per dire OK, sollevare un bicchiere immaginario per invitare qualcuno a un drink e toccarsi il polso per chiedere l’ora. Le tre azioni successive si riferivano a gesti tecnologici consueti, tra cui avvicinare un telefono immaginario all’orecchio per dire “chiamami”, picchiettare rapidamente con il pollice per simulare la composizione di un SMS e digitare su una tastiera immaginaria per indicare l’invio di un’email. Agli intervistati è stato quindi chiesto di identificare tre azioni basate sui gesti contemporanei di controllo touchscreen, ossia passare alla pagina successiva, scorrere verso il basso ed effettuare lo zoom indietro.
Il risultato primo della ricerca è stato nel fatto che oltre l’80% degli intervistati ha saputo identificare con estrema facilità gesti legati all’invio di una mail, al passaggio alla pagina successiva o allo scrolling. Le percentuali dicono che l’interazione gestuale uomo-macchina è ormai parificabile a quella uomo-uomo in termini di codifica e comprensione, descrivendo pertanto una situazione che vede ormai maturi gli standard identificati in questo tipo di dialogo non verbale. HP, nel diramare i risultati della ricerca, riporta altresì le conclusioni del dr. Peter Collett, esperto in comunicazione gestuale:
Ogni innovazione tecnologica genera nuovi gesti e nuovi modi di comunicare. Con l’avvento dei tablet stiamo assistendo a un rapido aumento della “gestechulation”, ossia dell’adozione diffusa di segnali di comunicazione che replicano i comandi di dispositivi touchscreen controllati tramite movimento. A differenza di molti gesti limitati a un’area geografica o a una cultura specifica, la ‘gestechulation’ si sta radicando in tutto il mondo gettando le basi per un esperanto gestuale basato sulla tecnologia che trascende le barriere linguistiche.
Lo studio sulla “gestechulation” ha una importanza fondamentale per lo sviluppo delle gestualità standard del futuro: gruppi come HP, che sull’interazione uomo-macchina intendono scommettere pesantemente in virtù della posizione di leadership raggiunta nello sviluppo di sistemi di grande diffusione (tra i quali l’ultimo HP Envy Leap Motion Special Edition), hanno la necessità di partire dalla statistica per capire quali gesti abbiano maggiori possibilità di diventare “naturali”, quali si scontrino con ostacoli particolari e quali siano ormai uniformemente accettati nella loro funzione significativa.
Sulla base dei risultati dell’indagine, l’età non è in alcun modo un ostacolo nella comprensione del significato dei gesti: gli intervistati con età oltre i 25 anni hanno dimostrato medesima capacità rispetto al segmento al di sotto dei 25 anni. Al contrario, la localizzazione ha un impatto fortissimo nella comprensione di gesti quali “zoom indietro”: in questo caso Italia (95%) e Germania (89%) hanno dimostrato una capacità di comprensione molto al di sopra rispetto a Francia (37%), Spagna (18%) o Russia (30%): estrazioni culturali differenti, insomma, possono incidere pesantemente sull’imporsi di un gesto invece di un altro, il che impone ricerche transnazionali in grado di dar vita a linguaggi realmente universali e uniformemente riconoscibili.
I risultati suggeriscono che alcuni gesti danno origine a una “confusione iconica”. Nel caso del comando di zoom indietro, ad esempio, le dita in realtà si avvicinano anziché allontanarsi e ciò sembra disegnare una prospettiva più ristretta anziché più ampia. È abbastanza probabile che la contraddizione insita in questo gesto tenda a rallentarne la diffusione, anche nei paesi dove i touchscreen sono ampiamente utilizzati, finché questo gesto non riuscirà a ottenere un sostegno adeguato.