Mark Zuckerberg aveva detto di voler rendere il suo social network più trasparente e in giornata odierna Facebook annuncia un passo in tale direzione, pubblicando le linee guida interne che l’azienda utilizza per applicare gli Standard della Comunità, standard che indicano cosa può trovare spazio sulla piattaforma e cosa invece non viene ammesso. Sarà anche lanciata la procedura che consentirà per la prima volta agli utenti di fare appello quando un singolo post non viene approvato.
Come sottolineato da Monika Bickert, VP della divisione Global Product Management di Facebook, «abbiamo deciso di pubblicare queste linee guida interne per due ragioni. Per prima cosa, le linee guida aiuteranno le persone a capire come prendiamo le decisioni su questioni delicate. Inoltre, questi dettagli renderanno più semplice per tutti, inclusi gli esperti di diversi settori, darci un feedback per migliorare le linee guida e, con il tempo, le decisioni che prendiamo».
Disponibili in un’apposita pagina creata per l’occasione, le linee guida dedicate agli Standard della Comunità fungono da guida su come comunicare su Facebook e si evolvono nel tempo sulla base dei feedback ricevuti da più parti, dei cambiamenti nelle norme sociali e nel linguaggio. È il team di Content Policy dell’azienda a occuparsi dello sviluppo di tali standard, composto da persone dislocate in 11 uffici nel globo, che include anche esperti di temi come l’incitamento all’odio, la sicurezza dei minori e il terrorismo. Le policy sono però importanti e valide solo quando vengono applicate in modo accurato – «e il modo in cui le applichiamo non è sempre perfetto», sottolinea Facebook.
Considerando l’incredibile quantità di contenuti che vengono generati dall’oltre miliardo di persone presenti su Facebook, identificare le potenziali violazioni degli Standard della Comunità rappresenta certamente una sfida. Oltre all’impiego delle tecnologie di intelligenza artificiale e delle segnalazioni che gli utenti Facebook inviano per aiutare il team a identificare post, immagini e altri contenuti che potrebbero violare tali regole, l’azienda conta attualmente di 7500 revisori di tali contenuti, oltre il 40% in più di quelli che aveva a bordo nel medesimo periodo dello scorso anno. Questo team opera in oltre 40 lingue per 24 ore al giorno, 7 giorni su 7, per tentare di rivedere quante più segnalazioni possibili.
Applicare però con precisione le policy al contenuto che un utente segnala non è comunque facile nemmeno per i revisori, ed è per tale motivo che Facebook tenterà di fare di più: come annunciato, nel corso del prossimo anno per la prima volta in assoluto il social network consentirà alle persone di appellarsi alle decisioni prese dal team. Il primo passo viene lanciato in giornata odierna con la possibilità di fare appello per post che vengono rimossi per nudità/attività sessuale, incitamento all’odio o violenza esplicita. Ecco come funziona: se una foto, un video o un post è stato rimosso perché viola gli Standard della Comunità Facebook, l’utente che li ha pubblicati riceverà una notifica e potrà decidere di chiedere un’ulteriore revisione manuale, che un revisore (una persona del team Community Operations) prenderà in carico entro 24 ore circa. Qualora Facebook abbia commesso un errore rimuovendo quel post, lo ripristinerà informando anche l’utente.
Per migliorarsi nel tempo, a maggio l’azienda lancerà i Facebook Forum: Community Standards, ovvero una serie di eventi pubblici in programma in Germania, Francia, Regno Unito, India, Singapore, Stati Uniti e in altri Paesi del globo ideati per raccogliere feedback dalle persone.