Google ha annunciato un nuovo modulo per il suo framework di machine learning, TensorFlow, che consente agli sviluppatori di migliorare la privacy dei propri modelli di intelligenza artificiale con poche righe di codice aggiuntivo.
TensorFlow è uno degli strumenti più popolari per la creazione di applicazioni di machine learning ed è utilizzato dagli sviluppatori di tutto il mondo per algoritmi relativi a diversi tipi di compiti percettivi e di comprensione del linguaggio. Con l’introduzione di TensorFlow Privacy, gli sviluppatori che ne fanno uso saranno in grado di salvaguardare i dati degli utenti con una tecnologia nota come “privacy differenziale”.
L’introduzione di questo strumento è in linea con i principi di Google per lo sviluppo dell’IA, secondo quanto dichiarato dal product manager di BigG Carey Radebaugh. La meccanica della privacy differenziale è alquanto complessa, ma è essenzialmente un approccio matematico: ciò significa che i modelli di IA addestrati sui dati degli utenti non possono codificare informazioni di identificazione personale. È un modo comune per salvaguardare le informazioni degli utenti: Apple l’ha introdotto per i propri servizi di IA con iOS 10, e Google lo utilizza per una serie di funzioni tra cui Smart Reply, il risponditore automatico di Gmail.
Per avere un’idea dei pericoli che minacciano la privacy in servizi del genere, basta considerare quanti dati vengono raccolti ogni giorno da Smart Reply per suggerire le risposte agli utenti Gmail: oltre un miliardo. Tra questi si annoverano informazioni estremamente personali (in pratica qualsiasi cosa l’utente abbia mai inserito in un’e-mail) e se Smart Reply li facesse emergere, per esempio mostrando parola per parola ciò che un utente ha scritto, sarebbe disastroso. La privacy differenziale elimina questa possibilità con “certezza matematica”, afferma Úlfar Erlingsson, ricercatore di Google che lavora da 20 anni nel campo della protezione dei dati.