Facebook ha pubblicato il suo Report sull’applicazione degli Standard della Comunità in cui emergono molti dati interessanti sul lavoro che la società sta portando avanti per bloccare i comportamenti illeciti degli utenti. Facebook ha rimosso oltre 837 milioni di contenuti legati allo spam nel primo trimestre del 2018. Per combattere il fenomeno dello spam la soluzione è bloccare i falsi account utilizzati per diffonderlo. Facebook ha quindi sottolineato di aver disattivato 583 milioni di account nel primo trimestre del 2018, un dato in calo rispetto ai 694 milioni di account disattivati nel quarto trimestre dello scorso anno. Trattasi di una diminuzione che l’azienda attribuisce alla variabilità della capacità della sua tecnologia di individuare e contrassegnare questi account.
La maggior parte degli account sono stati disattivati entro pochi minuti dalla loro registrazione. A questi si aggiungono anche i milioni di tentativi di creazione di account falsi che Facebook blocca ogni giorno. Tuttavia, Facebook afferma che il suo sistema di verifica non è infallibile. Infatti, la società evidenzia che il 3-4% degli account attivi nel periodo preso in esame fosse, in realtà, falso. Trattasi di numeri molto importanti che evidenziano il grande lavoro che sta svolgendo il social network per fermare le attività illecite che vengono svolte all’interno della piattaforma. Uno sforzo considerevole che è iniziato quando è stato scoperto che Gruppi vicini alla Russia avevano utilizzato Facebook per influenzare la campagna delle Presidenziali del 2016.
Secondo Facebook, la maggior parte degli account fasulli sarebbe stata identificata dai suoi sistemi di controllo automatico. Solo l’1,5% degli account disattivati sarebbe stato segnalato dagli iscritti.
All’interno del report, la società ha affermato di aver rimosso 21 milioni di contenuti legati alla sfera della pornografia. Il 96% di questi contenuti sarebbe stato individuato dai sistemi automatici della piattaforma. Per quanto riguarda l’incitamento all’odio, il sistema di riconoscimento automatico di Facebook non funziona ancora bene e per questo la società ha fatto molto affidamento ai team umani di revisione. In totale sono stati rimossi 3,5 milioni di contenuti violenti nel primo trimestre del 2018, il 38% dei quali è stato individuato automaticamente.
Facebook ha, inoltre, promesso che migliorerà la sua tecnologia per fare in modo di riconoscere sempre con maggiore precisione tutte le attività illecite. Come ha evidenziato Mark Zuckerberg a F8 c’è ancora molto lavoro da fare per prevenire gli abusi. L’intelligenza artificiale, infatti, non è ancora pronta per essere efficace con il 100% dei contenuti della piattaforma.
Ecco perché Facebook investirà molte risorse nel migliorare la sua tecnologia e nei team umani che monitoreranno la piattaforma.