Facebook afferma che sta testando diversi strumenti per impedire alle persone di condividere contenuti molesti con raffiguranti i bambini. Uno è un pop-up che dovrebbe apparire alle persone che utilizzano termini di ricerca collegati ai minori, e descriverà in dettaglio le conseguenze della visualizzazione di tali contenuti.
L’altra misura di sicurezza a tutela dei bambini si concentra sulla “condivisione non dannosa” di “contenuti virali e meme in cui sono presenti i più piccoli”. Le persone che condividono materiale sensibile riceveranno un avviso sui danni che può causare. Nel caso in cui violasse le politiche di Facebook, la società rimuoverà il contenuto e lo segnalerà al National Center for Missing and Exploited Children (NCMEC); inoltre eliminerà gli account che promuovono tale materiale.
Facebook ha pertanto aggiornato le sue linee guida sulla sicurezza dei bambini. Secondo il responsabile globale della sicurezza, Antigone Davis, l’azienda eliminerà “profili, pagine, gruppi e account Instagram dedicati alla condivisione di immagini con didascalie tutt’altro che innocenti di bambini, così come vieterà hashtag o commenti inappropriati”. Mentre le immagini o i video che le persone condividono potrebbero non infrangere le regole di Facebook, Davis osserva che “il testo di accompagnamento può aiutare il team a capire meglio se il contenuto stia sessualizzando i bambini e se il profilo, la pagina, il gruppo o l’account associato debba essere rimossi”.
Inoltre, l’azienda ha aggiornato il suo menu di segnalazione dei contenuti. Gli utenti che andranno a segnalare contenuti che hanno a che fare con la nudità o l’attività sessuale di un minore avranno la priorità per i revisori. Facebook afferma inoltre di aver adottato le API per la sicurezza dei contenuti di Google al fine di rilevare quando i post potrebbero contenere materiale del genere, sempre per dargli priorità con i revisori.