Intelligenza artificiale, reti neurali e machine learning avranno un impatto sempre maggiore sui contenuti presenti in Rete. Si tratta di tecnologie in grado di andare ad agire laddove software e applicativi tradizionali non possono arrivare, alterando talvolta la realtà o il modo in cui viene percepita. Il progetto messo in campo da un team di ricercatori della Tel Aviv University in partnership con Facebook si inserisce di diritto in questo filone.
Si tratta essenzialmente di un sistema in grado di animare un selfie, un ritratto o un dipinto, sulla base delle espressioni effettuate da un attore all’interno di quello che viene definito driving video. In altre parole, vengono analizzati i movimenti del viso (degli occhi, della bocca, del naso, della fronte ecc.) e riprodotti all’interno del target, partendo da un singolo fotogramma. Il risultato è del tutto convincente, come mostra il filmato in streaming di seguito. Non è dunque difficile capire perché Facebook sia coinvolta nell’iniziativa: un approccio di questo tipo potrà essere adottato, ad esempio, per far reagire le immagini profilo degli utenti ogni volta che si assegnerà un like ai loro post.
Il funzionamento è applicabile anche a dipinti e avatar del tutto simili a emoji: tutto ciò di cui si ha bisogno è un video in cui un attore effettua le espressioni facciali da riprodurre, niente più. Interventi di post-produzione come un’ottimizzazione delle ombre o il ripristino di dettagli mancanti (ad esempio i denti in occasione di un sorriso) vengono applicati direttamente dal software.
La tecnologia in questione richiama alla mente un altro progetto, differente nelle modalità, ma simile in termini di finalità: quello portato avanti dalla University of Washington e battezzato Synthesizing Obama, che basandosi sull’impiego di reti neurali e intelligenza artificiale è in grado di generare un video sulla base di quanto pronunciato in un file audio, con movimenti delle labbra del tutto naturali e verosimili.