Si intitola “Unsupervised Image-to-Image Translation Networks” ed è una ricerca condotta da Ming-Yu Liu, Thomas Breuel e Jan Kautz di NVIDIA, che mira alla creazione di un’intelligenza artificiale in grado di alterare in modo convincente la realtà rappresentata all’interno di un filmato. Stando ai primi test, i risultati sembrano già essere piuttosto convincenti.
Il sistema analizza i fotogrammi contenuti in un video sorgente, estrapolandone informazioni come il meteo e l’orario in cui è stato prodotto, dopodiché interviene sui singoli frame modificandoli in modo da variare, appunto, elementi come quelli relativi alle condizioni della scena o alla fascia oraria. La prima delle due clip visibili in streaming di seguito ne è la perfetta dimostrazione: a sinistra il filmato originale, registrato viaggiando su una strada dopo un’intensa nevicata, mentre a destra l’IA ha elaborato le immagini per simulare la loro acquisizione durante la stagione estiva.
Nel secondo esempio, qui sotto, a sinistra la registrazione originale effettuata di giorno e a destra il corrispettivo generato dall’IA di NVIDIA per simulare una ripresa notturna.
Considerando che lo sviluppo del sistema si trova ancora in una fase preliminare, ci sono tutti i presupposti per pensare possa essere ulteriormente e notevolmente migliorato, rendendo il risultato pressoché indistinguibile dalla realtà. Si pensi alle possibili implicazioni di un suo impiego malevolo, ad esempio per l’alterazione di documenti o materiale informativo. Una considerazione già scaturita parlando di altre tecnologie che si inseriscono nello stesso filone, potenziali strumenti nelle mani di chi desidera creare e diffondere fake news (balza ad esempio alla mente il progetto Synthesizing Obama). Ovviamente, non è questo lo scopo del progetto messo in campo da NVIDIA, ma tenerne conto è d’obbligo.
Il giornalista britannico Oli Franklin-Wallis, con un tweet, pone un valido spunto di riflessione: la principale conseguenza derivante dall’adozione dell’intelligenza artificiale non sarà da ricercare nella perdita dei posti di lavoro, come sostenuto da più parti, bensì nella completa eradicazione della fiducia in ciò che si ascolta o si vede.
The biggest casualty to AI won't be jobs, but the final and complete eradication of trust in anything you see or hear. https://t.co/sg9o4v2Q3f pic.twitter.com/nkj007LtEF
— Oli Franklin-Wallis (@olifranklin) December 4, 2017