Il servizio Google Foto è stato introdotto dal gruppo di Mountain View a metà del 2015. Una piattaforma nata da una costola di G+, resa indipendente dal social network e cresciuta fino a oggi attraverso la costante inclusione di nuove funzionalità. All’inizio non tutto andò però per il verso giusto: l’algoritmo dedito all’assegnazione automatica dei tag commise un errore non di poco conto.
Alle immagini di due persone con la pelle nera fu associata l’etichetta “gorilla”. Da bigG giunsero scuse immediate e una dichiarazione ufficiale in cui si parlò di un errore dell’IA. La soluzione fu immediata, impedendo al sistema l’assegnazione del tag incriminato. Fino ad oggi le cose non sono cambiate: la redazione di Wired ha condotto un test approfondito, caricando migliaia di fotografie relative a scimmie, certificando che tutte le razze vengono riconosciute correttamente, tranne gli scimpanzé e i gorilla. In altre parole, per evitare il ripetersi di un comportamento anomalo e potenzialmente offensivo, Google ha impedito alla propria piattaforma di identificare queste specie animali.
Lo studio ha inoltre evidenziato come cercando “black man” e “black woman” vengano mostrate solo immagini di uomini e donne che indossano abiti neri, senza fare alcuna distinzione in base al colore della pelle. Oggi, dopo quasi tre anni, nulla è cambiato. Un portavoce di Mountain View lo ha confermato a Wired, sottolineando però come il problema non riguardi la Cloud Vision API messa a disposizione da Google ai suoi partner e impiegata dall’assistente virtuale.
https://twitter.com/jackyalcine/status/615331869266157568
Non è chiaro per quale motivo non sia ancora stato introdotto un fix per Google Foto. In ogni caso, la vicenda costituisce un interessante e valido spunto di riflessione per capire come nell’epoca dell’intelligenza artificiale, delle reti neurali e del machine learning, anche gli algoritmi più avanzati siano fallibili e come l’intervento dell’essere umano sia talvolta ancora necessario.