Un report comparso in Rete la scorsa settimana ha portato alla luce comportamenti riconducibili alla sfera pedopornografica rilevati tra i commenti di alcuni video in streaming su YouTube. La piattaforma ha subito preso in carico le segnalazioni e le contromisure non si sono fatte attendere: negli ultimi giorni più di 270 account sono stati eliminati, 150.000 clip inappropriate cancellate e per altre 625.000 sono stati disattivati i commenti.
Si parla di immagine sessualizzata dei bambini, spesso legata a filmati o fotografie che ritraggono i più piccoli in vesti o abiti da adulti. Il gruppo di Mountain View ha assunto una posizione severa, com’è giusto che sia quando si tratta di un tema tanto delicato. L’azione si è resa necessaria dopo che, come riportato da numerosi volontari che si occupano della moderazione, gli automatismi impiegati da bigG per monitorare commenti sospetti si sono purtroppo rivelati inadeguati al loro compito. Questa la dichiarazione di un portavoce Google, affidata alla redazione di VICE.
Durante la scorsa settimana abbiamo rimosso inserzioni pubblicitarie da quasi due milioni di video e 50.000 canali mascherati da contenuti per famiglie. I filmati che mettono a rischio i bambini sono un abominio e li riteniamo inaccettabili.
Il problema costituisce anche un potenziale danno economico per YouTube e, più in generale, per la parent company Alphabet: in seguito alla pubblicazione del report e dopo aver scoperto che le loro pubblicità sono state visualizzate sui video in questione, alcuni importanti brand (Lidl, Mars, Mondelez, Adidas, Hewlett-Packard e altri) hanno deciso di sospendere le loro campagne di advertising sulla piattaforma. Una vicenda che, di nuovo, fa emergere l’esigenza di tutelare i soggetti più piccoli e indifesi. Questo un breve estratto da uno dei commenti incriminati, rivolto al gestore del canale.
Mandami il filmato da due minuti del match di wrestling senza vestiti in privato e ti dirò tutto ciò che devi sapere per far crescere il tuo canale.