Sheryl Sandberg, direttore operativo di Facebook, ha fatto la sua prima dichiarazione pubblica concernente l’indagine portata avanti da ProPublica che ha svelato come il sistema pubblicitario di Facebook permettesse di creare categorie pubblicitarie di respiro antisemita. Sheryl Sandberg afferma, senza mezzi termini, che si tratta di un “fallimento da parte loro” e promette misure più stringenti per evitare che fatti analoghi si ripetano.
Sandberg sostiene che il sistema di pubblicità mirata è il modo in cui Facebook ha aiutato milioni di aziende a crescere, trovare i clienti e assumere persone. Per consentire alle imprese, soprattutto a quelle piccole, di trovare i clienti che potrebbero essere interessati ai loro prodotti o servizi, il social network ha offerto loro la capacità di individuare categorie in settori come l’istruzione ed il lavoro. La gente avrebbe inserito in questi campi personalizzati le categorie offensive scoperte dall’inchiesta. Questa spiegazione, però, è in contraddizione con l’articolo iniziale di ProPublica che ha affermato che le categorie sono state generate automaticamente dagli algoritmi del social network. Sandberg evidenzia, ancora, che non avrebbero mai pensato che questa funzionalità pubblicitaria potesse essere usata in questo modo. Sheryl Sandberg ha, poi, illustrato alcune modifiche che la società porrà in essere per prevenire fatti analoghi, tra cui un maggior coinvolgimento umano. Ci sarà, dunque, un maggiore controllo da parte di team umani che verificheranno gli annunci per impedire promozioni basati su termini oltraggiosi.
[embed_fb]https://www.facebook.com/sheryl/posts/10159255449515177[/embed_fb]
Inoltre, Facebook starebbe sviluppando un programma per incoraggiare gli utenti a segnalare direttamente gli abusi allo stesso modo di come possono fare già oggi per i post degli iscritti. In futuro, comunque, il social network non solo sarà molto più attento ma sarà ancora molto più severo.
Sheryl Sandberg promette, dunque, maggiore attenzione affinché fatti analoghi non possano più ripetersi. Il lavoro da fare, però, sarà davvero molto perché i revisori umani hanno già dimostrato di non essere sufficientemente rapidi nell’individuare e bloccare i contenuti che violano le policy della piattaforma.
L’impegno di Facebook su questo tema è, comunque, importante e lodevole ma gli sforzi dovranno essere ben maggiori di così per riuscire a raggiungere questi obiettivi.