Con oltre 2 miliardi di utenti, per Facebook il compito di vigilare sui contenuti condivisi dagli iscritti è sempre più difficile. Questo lavoro è gestito da un team di oltre 7500 persone che moderano i contenuti segnalati dagli utenti o dagli algoritmi del social network. Messaggi che possono includere materiale terroristico, affermazioni razziste, sessiste e molto altro ancora. Non sorprende, dunque, che questo lavoro possa non essere portato a termine nel migliore dei modi, vista la sua enorme mole, soprattutto a causa di alcune linee guide non propriamente chiare, come è emerso nei mesi scorsi.
ProPublica, nota per aver più volte messo sotto la lente di ingrandimento le attività di Facebook, ha scovato un’ulteriore falla nel sistema di revisione del social network. La nota organizzazione no-profit americana ha inviato a Facebook un campione di 49 articoli contenenti termini violenti su cui il social network non avrebbe effettuato una corretta revisione. Facebook, infatti, ha dovuto ammettere che i suoi revisori hanno commesso errori in ben 22 casi. In sei casi, Facebook ha incolpato gli utenti per non aver segnalato i post in modo corretto, e in due episodi aggiuntivi ha detto che non ha avuto abbastanza informazioni per rispondere adeguatamente. La società ha difeso 19 delle sue decisioni.
Tuttavia, Justin Osofsky, VP di Facebook, ha ammesso l’errore e si è pubblicamente scusato per quanto accaduto, evidenziando come sia necessario fare molto di più in futuro. Proprio per questo, nel 2018 il social network rafforzerà il suo team di revisori che potrà contare su oltre 20 mila persone.
Justin Osofsky ha anche aggiunto che ogni settimana Facebook elimina 66 mila messaggi contenenti espressioni d’odio.
Il social network promette, dunque, nuove misure per arginare il fenomeno dei contenuti d’odio presenti all’interno della sua piattaforma. Una sforzo sicuramente notevole che si aggiunge a quello che parallelamente sta portando avanti per combattere il problema delle fake news.