Le tecnologie di riconoscimento facciale sono sempre più diffuse, basti considerare le più recenti integrazioni nei più che onnipresenti smartphone. Eppure questa innovazione potrebbe essere tutto fuorché imparziale, così come dimostrato da una ricerca condotta dal Media Lab del MIT: il riconoscimento facciale preferisce gli uomini caucasici, che identifica senza troppe problematiche, mentre fatica con le donne e, più in generale, con le altre etnie. Non una questione ovviamente connessa a sessismo e razzismo, poiché la tecnologia di per sé non discrimina, bensì alla necessità di ripensare e di far evolvere gli algoritmi di identificazione.
Lo studio è stato condotto dal ricercatore Joy Buolamwini, pronto a raccogliere oltre 1.270 volti di politici e altri personaggi pubblici, suddivisi quindi per genere ed etnia. Creato il database, le immagini sono state proposte a tre sistemi di riconoscimento facciale, elaborati da Microsoft, IBM e Megvii, per vagliare la loro accuratezza. Dai risultati è emerso come queste tecnologie non presentino grandi intoppi nell’identificare correttamente uomini di carnagione molto chiara, mentre la performance scende significativamente sia analizzando volti femminili che tonalità della pelle più scure.
Per quanto riguarda i toni chiari della pelle, gli errori di identificazione del genere sono meno dell’1% per gli uomini, mentre il 7% per le donne. Per le carnagioni più scure, invece, i dati salgono al 12% per la componente maschile e ben al 35% per la controparte femminile.
Simili risultati erano già emersi in studi precedenti, in particolare in un’estesa analisi condotta nel 2015. Proprio in quell’anno, una fitta polemica aveva coinvolto Google, poiché il sistema d’identificazione incluso nell’applicazione fotografica del gruppo avrebbe scambiato, come riferisce The Verge, le persone di colore con oggetti e animali. Lo scorso anno, invece, The Atlantic aveva lanciato un monito sull’impiego di simili tecnologie per scopi legati alle indagini di polizia e alle operazioni di giustizia, poiché la ridotta accuratezza avrebbe potuto portare a un incremento immotivato di perquisizioni e arresti per determinate etnie.
Così come riferisce il MIT, e come già accennato in apertura, gli algoritmi alla base dei sistemi di riconoscimento facciale non sono intenzionalmente “biased”, ovvero inclini a favorire un gruppo etnico rispetto ad altri, tuttavia gli errori impongono una maggiore attenzione da parte dell’industria rispetto alla varietà demografica e fenotipica dell’intero globo. Una questione che potrebbe essere già stata risolta con la sempre maggiore implementazione dei sistemi di identificazione 3D, quali Face ID di Apple e le imminenti proposte di Huawei: basandosi sulla scansione del volto con sistemi quali l’infrarosso, non solo si ottiene una riproduzione fedele del viso stesso, ma il dato sul colore della pelle non viene nemmeno considerato, poiché ininfluente ai fini dell’operazione.