In fotografia la post-produzione serve ad apportare ritocchi, modifiche e ottimizzazione all’immagine scattata in fase di acquisizione. Un tempo lo si faceva nella camera oscura, oggi con gli strumenti digitali. In questa fase si può intervenire su parametri come la luminosità, il contrasto, luci e ombre, effettuare un ritaglio, una rotazione, una doppia esposizione e tutto ciò che suggerisce la fantasia. Un progetto messo in campo dall’University of California di Santa Barbara in collaborazione con NVIDIA si spinge ben oltre.
Si tratta di una tecnologia definita Zoom Computazionale (“Computational Zoom” in inglese), che permette di agire sull’inquadratura tramite l’impiego di un algoritmo. Si parte scattando più immagini, con la stessa lunghezza focale, ma spostandosi nello spazio avvicinandosi al soggetto. Negli esempi raccolti dal filmato qui sotto ci si muove verso la persona in primo piano, modificando di fatto la sua distanza dalla fotocamera.
Una volta date in pasto le immagini al software, quest’ultimo è in grado di generare una sorta di rendering 3D della scena. Si può così mantenere qualcuno in primo piano e ingrandire una porzione dello sfondo, ottenendo di fatto un risultato finale impossibile da immortalare nella realtà, eliminando qualsiasi tipo di distorsione generato dalle ottiche tradizionali. Si modifica dunque la percezione dello spazio.
I ricercatori al lavoro sul progetto hanno intenzione di rendere disponibile il software sotto forma di plug-in da utilizzare con i programmi dedicati alla fotografia, come Photoshop o Lightroom. Un approccio che richiama in qualche modo alla mente quello dei dispositivi Lytro, in grado di consentire all’utente di agire sulla messa a fuoco in fase di post-produzione. In questo caso, però, non ci si limita a cambiare la profondità di campo, bensì si agisce direttamente sulla scena inquadrata, creando di fatto uno sfondo o delle quinte che nel mondo reale non esistono.