È capitato a tutti più o meno di girare video in cui appaiono immagini sfocate. Adesso, un gruppo di ricercatori del MIT ha trovato un modo per recuperare i dettagli persi delle immagini e creare delle copie visivamente pulite delle parti sfocate a causa dei movimenti. Il merito è di un algoritmo battezzato “visual deprojection model” (modello di deproiezione visiva) e si basa sulla rete neurale convoluzionale.
Quando il modello viene utilizzato per elaborare immagini di bassa qualità mai viste prima con elementi sfocati, le analizza per capire cosa nel video potrebbe aver prodotto la sfocatura. Quindi sintetizza nuove immagini che combinano dati sia dalle parti nitide che da quelle sfocate di un video. Per esempio, nel caso in cui l’utente giri un video in giardino con il cane che corre e si rotola sul prato, la tecnologia sarà in grado di creare una versione di quel video che mostra chiaramente le fonti del movimento dell’animale domestico.
Durante la fase di test condotta dal team di sviluppo del MIT, il modello è stato in grado di correggere 24 fotogrammi di un video che mostra l’andatura di una persona e la posizione delle sue gambe. I ricercatori sono concentrati sul perfezionamento della tecnologia per poterla un giorno renderla utile in campo medico. Ritengono che il modello potrebbe essere utilizzato per convertire immagini 2D, come i raggi X, in immagini 3D con ulteriori informazioni, come le tomografie computerizzate ma senza costi aggiuntivi (si sa che una TC in 3D è molto costosa).
Questo andrebbe a beneficio, in futuro, non soltanto dei cittadini ma anche delle nazioni in via di sviluppo, in cui il settore medico necessita di progredire.