Nonostante gli sforzi di molti social network tra cui Facebook e Twitter nel voler fermare i contenuti di matrice terroristica che vengono diffusi all’interno delle piattaforme sociali, il Governo inglese ha deciso che non è abbastanza e per questo ha preso in mano la situazione. L’Home Office, cioè il dicastero del Governo inglese preposto alla gestione degli affari interni, ha sviluppato un proprio sistema basato sull’utilizzo dell’intelligenza artificiale in grado di individuare la propaganda islamica online con un altissimo tasso di successo pari al 99,99%.
Questa tecnologia analizza i filmati già durante la loro fase di caricamento, impedendo di essere condivisi su Internet. Trattasi di un miglioramento notevole rispetto a quanto accade normalmente, visto che le grandi aziende del web impiegano mediamente 36 ore per rimuovere i contenuti. Si tratterebbe anche di un risultato ancora superiore al limite delle due ore di tempo chiesto dal Governo inglese alle Internet Company. Secondo quanto affermato dall’Home Office, questa piattaforma è in grado di individuare il 94% della propaganda islamica con un tasso del successo del 99,99%. Questa piattaforma sarà disponibile per tutti i siti Internet ed in particolare per i più piccoli come Vimeo e pCloud che hanno visto aumentare sensibilmente la presenza di contenuti della propaganda di matrice terroristica negli ultimi tempi.
Secondo il ministero inglese, i terroristi hanno utilizzato più di 400 piattaforme online per diffondere la loro propaganda nel 2017. Lo sviluppo di questo strumento è il risultato dell’impazienza del Governo inglese nei confronti dei grandi big di Internet che non riescono ad agire in maniera significativa. Trattasi anche della dimostrazione che è possibile agire in maniera incisiva aiutando anche tutte quelle realtà più piccole che non avrebbero i mezzi per affrontare il problema.
Il governo inglese non escluderebbe, inoltre, la possibilità di obbligare le aziende ad adottare questa piattaforma.
Tuttavia, la notizia dell’esistenza di questo strumento ha sollevato anche una serie di dubbi. Open Rights Group, ad esempio, ha sollevato la questione della responsabilità legale per la rimozione dei contenuti. Con questa piattaforma, infatti, si spingerebbero le aziende a decidere cosa è legale e cosa no. Inoltre, i sistemi possono sbagliare ed eventuali errori devono essere risolti e rettificati.
Ipotizzando una sua implementazione su una piattaforma enorme come quella di Facebook, il suo basso tasso di errori porterebbe, comunque, a decine di migliaia di sbagli ogni giorno.
L’Home Office inglese non ha spiegato la metodologia alla base della valutazione dei video, ma ha affermato che su un milione di video selezionati casualmente, solo 50 richiederebbero una revisione umana aggiuntiva.
Il Governo inglese, dunque, sembrerebbe aver deciso che strada intraprendere anche se potrebbe non essere così semplice come potrebbe sembrare.
Facebook, in una dichiarazione a TechCrunch, ha affermato di condividere gli obiettivi del Governo inglese ma che non esiste una soluzione tecnica semplice per combattere l’estremismo online. Il Governo inglese sembra, però, pensarla in maniera differente.