Il gigante del video sharing ha pubblicato il suo primo report riguardante le linee guida relative all’attività della community: YouTube ha rimosso oltre 8 milioni di video nell’ultimo trimestre dello scorso anno (più precisamente 8.284.039). È la testimonianza del costante impegno profuso al fine di assicurare che i contenuti potenzialmente dannosi oppure offensivi rimangano ben lontani dalla piattaforma.
Particolarmente interessante notare come ben 6,7 milioni dei filmati in questione, oltre l’80% di quelli cancellati, siano stati individuati dagli algoritmi di machine learning e mai riprodotti dagli utenti. Alcuni, in special modo quelli relativi allo spam, vengono eliminati automaticamente una volta analizzati dall’intelligenza artificiale, mentre agli altri è apposto un flag per la revisione da parte di un operatore in carne e ossa. In questo modo un addetto può visionare il filmato e decidere se rispetta le linee guida di YouTube, applicando eventualmente un rating per impedirne la visione ai più piccoli o ai non iscritti. La clip in streaming di seguito spiega in modo chiaro e dettagliato il procedimento.
Lo sforzo messo in campo dalla piattaforma per la revisione dei file pubblicati si è intensificato nei mesi scorsi, quando in molti hanno puntato il dito contro la condivisione di video contenenti un’immagine sessualizzata dei bambini. Pronta la replica del CEO Susan Wojcicki, che ha assicurato un maggiore impegno in fase di controllo e revisione. Lo stesso vale per l’hate speech e per i contenuti di natura violenta.
Ovviamente un ruolo importante è giocato dagli utenti stessi di YouTube, che in qualunque momento sono in grado di associare un flag a uno qualsiasi dei filmati in streaming, richiamando così l’attenzione degli addetti ai lavori, segnalando inoltre la policy che ritengono violata. Nella Top 10 delle community maggiormente attive da questo punto di vista, quella indiana guida la chart, seguita dagli Stati Uniti e dal Brasile.