I colossi del web sono sempre in prima linea nella lotta alla pedopornografia online. Dover identificare e rimuovere i tanti contenuti di abuso sessuale sui minori (CSAM) presenti in rete, ogni giorno, è però un lavoro sfibrante per un “semplice” essere umano. Per questo motivo Google ha recentemente rilasciato un software di intelligenza artificiale gratuito, studiato appositamente per aiutare gli indefessi controllori del web.
Nella maggior parte dei casi vengono utilizzati dei programmi che analizzano immagini e video già segnalati e presenti quindi in una sorta di lista nera, come PhotoDNA, uno strumento sviluppato da Microsoft e implementato da social network come Facebook e Twitter. Questi strumenti, chiamati “crawler”, impediscono la condivisione di CSAM precedentemente segnalati. Ad oggi però non è ancora possibile bloccare materiale che non è già stato contrassegnato come illegale. Per questo motivo è necessario che intervengano dei moderatori in carne ed ossa.
E qui entra in gioco il nuovo strumento di Google. I revisori umani non verranno sostituti da un qualche algoritmo partorito dal colosso di Mountain View, ma verranno affiancati da un software che dirà loro a quale immagine o video (già segnalati in precedenza) dare la priorità. In questo modo il processo di revisione dei contenuti sarà molto più veloce. Google ha fatto sapere che, in una versione di prova, questa nuova IA ha permesso ad un moderatore umano di intervenire sul 700% di contenuti in più nello stesso periodo di tempo.
Il vice CEO di Internet Watch Foundation (IWF), Fred Langford, ha spiegato che questo nuovo strumento offerto da Google permetterà ai loro team di lavorare in modo più efficace. L’IWF è una delle più grandi organizzazioni che combatte la diffusione di materiale pedopornografico online, e collabora anche con le forze dell’ordine per identificare siti web in cui vengono condivise immagini o video di abusi sessuale sui minori. IWF ha sede nel Regno Unito ed è finanziata da colossi come appunto Google.
Quello di bigG è uno strumento definito da Langford come “un passo avanti verso sistemi completamente automatizzati in grado di identificare materiali mai visti prima, senza alcuna interazione umana”. Tuttavia lo stesso Langford ha aggiunto che questa IA va considerata attendibile solo in “certi casi”, per “evitare che del materiale illegale scivoli attraverso la rete”.