Sono diversi i motivi che, oggigiorno, spingono i produttori di smartphone ad adottare una soluzione dual camera, equipaggiando una coppia di sensori fotografici sul retro del dispositivo. Quello principale è costituito dalla possibilità di ottenere un effetto bokeh convincente, soprattutto nei ritratti, mantenendo il soggetto inquadrato ben a fuoco in primo piano e applicando una convincente sfocatura allo sfondo. Un po’ come avviene con reflex e mirrorless montando un obiettivo con apertura del diaframma molto ampia.
Google, con i nuovi Pixel 2 e Pixel 2 XL, ha scelto di percorrere un’altra strada: anziché aggiungere una seconda fotocamera, impiega le potenzialità del machine learning per analizzare l’immagine acquisita e isolarne il soggetto. Alla base di tutto la tecnologia di TensorFlow, che in un lasso di tempo pressoché immediato individua quali pixel appartengono al volto e quali allo sfondo, lasciando inalterati e ben nitidi i primi, andando invece a sfocare con uno stile artistico gli altri. Il risultato è quello visibile nelle due immagini di esempio allegate di seguito, pubblicate da bigG sul proprio blog dedicato alla ricerca.
Interessante notare inoltre che il sistema non si applica solamente alle fotografie scattate a persone. Qui sotto un fiore, che riceve lo stesso identico trattamento simulando una macro: l’oggetto inquadrato è mantenuto nitido e in primo piano, mentre lo sfondo viene sfocato.
La Modalità Ritratto di Pixel 2 e Pixel 2 XL è abilitata anche per la fotocamera frontale da 8 megapixel, quella per i selfie. In questo caso, l’efficacia del machine learning è testimoniata dal fatto che si può ottenere un risultato convincente nonostante l’assenza del PDAF (Phase Detection Autofocus) per la messa a fuoco.