Alcuni ricercatori hanno usato più di 1700 foto di studenti e altre persone senza il loro consenso per uno studio riguardo riconoscimento facciale, sponsorizzato dai servizi militari e di intelligence statunitensi, come riporta il Colorado Springs Independent e il Financial Times. Tecnicamente è tutto legale, ma ciò solleva diverse domande sulla privacy che ruota attorno al tema molto attuale riguardo il riconoscimento facciale, IA e sorveglianza.
Lo studio è stato condotto in realtà anni fa, tra il 2012 e 2013, per determinare se gli algoritmi potessero identificare caratteristiche facciali da una lunga distanza, attraverso ostacoli e in condizioni di luce scarsa. Un teleobiettivo è stato installato a una distanza di circa 150 metri da un’area pubblica con molto traffico pedonale. La maggior parte dei soggetti guardava lontano dalla telecamera.
I ricercatori hanno accuratamente combinato le foto e creato un set di dati chiamato “studenti universitari non vincolati”. Questo set di dati potrebbe aiutare gli scienziati a sviluppare algoritmi che funzionano per riconoscere i volti da una distanza maggiore. Potrebbe essere particolarmente utile per le forze militari, per aiutare a riconoscere un soggetto amico o nemico in lontananza.
La ricerca è stata condotta dal Dr. Terrence Boult: ha detto che l’acquisizione di immagini di persone in luoghi pubblici non è illegale e che lo studio è stato autorizzato dal college in Colorado (University of Colorado). Ha inoltre affermato che lo studio è stato inizialmente messo a disposizione di ricercatori aziendali, ma in seguito è stato ritirato perché l’articolo del Financial Times includeva le date in cui le foto erano state scattate, mettendo a repentaglio l’anonimato.
Secondo Boult lo studio farà più bene che male: “il nostro lavoro come ricercatori è quello di bilanciare le esigenze di privacy con il valore della ricerca che fornisce alla società, siamo andati ben al di là di quanto richiesto“, ha detto.
Il riconoscimento facciale sta diventando in ogni caso sempre più un argomento divisivo, in molti pensano che possa diventare un sistema di controllo che viola la privacy (Microsoft si è già mossa in merito). La città di San Francisco ad esempio ha recentemente messo al bando questi sistemi, mentre Uber si trova ad affrontare rivendicazioni di razzismo sul suo sistema di riconoscimento dei conducenti.