Una conversazione può essere interpretata non solo attraverso le parole pronunciate, ma anche osservando altri “segnali”, come lo sguardo, il tono e il volume. Due ricercatori del MIT hanno sviluppato un algoritmo di intelligenza artificiale che permette di rilevare le emozioni attraverso l’analisi della voce e di alcuni parametri vitali. Il sistema prevede l’uso di un dispositivo indossabile, sul quale vengono visualizzate le forme d’onda associate al tipo di conversazione (felice, triste o neutra).
I ricercatori hanno chiesto ai partecipanti all’esperimento di raccontare una storia reale per addestrare l’algoritmo. I soggetti indossavano un Samsung Simband, un dispositivo simile ad uno smartwatch che può registrare i movimenti, i battiti cardiaci, la pressione del sangue, il flusso sanguigno e la temperatura della pelle. Il sistema è in grado anche di catturare dati audio e trascrizioni di testo. Utilizzando tecniche di deep learning è stato possibile creare un “punteggio del sentimento”. Dopo vari test, i ricercatori sono riusciti a rilevare il tono delle conversazioni con una precisione dell’83%.
L’algoritmo di intelligenza artificiale ha quindi fornito risultati in linea con ciò che può osservare un essere umano. Ad esempio, lunghe pause o toni vocali monotoni sono associati a storie tristi, mentre una voce con vari livelli di volume viene associata a storie felici. Storie poco piacevoli da raccontare si possono identificare anche osservando una certa agitazione nelle persone o un’intensa attività cardiovascolare.
L’obiettivo finale è sviluppare un “social coach” per le persone ansiose o affette da sindrome di Asperger, ma prima è necessario migliorare l’algoritmo, collezionando dati su larga scala, eventualmente usando un dispositivo più diffuso, come l’Apple Watch.