Mentre Facebook continua ad affrontare critiche su come gestisce i messaggi legati al terrorismo che vengono condivisi attraverso la sua piattaforma, la società ha precisando il suo lavoro per fermare questo fenomeno. Facebook ha dichiarato, in un post sul blog, che la maggior parte degli account rimossi per attività legate al terrorismo sono stati scoperti dall’azienda stessa utilizzando un sistema di intelligenza artificiale che è dedicata all’individuazione di queste e di altre tipi di minacce.
Queste tecniche includono l’individuazione di foto e di video legate alle azioni terroristiche e la rilevazione di “cluster”, in cui i contenuti terroristici vengono pubblicati su account correlati. Facebook ha anche affermato di aver realizzato nuove tecniche per bloccare la diffusione di questi contenuti. Ma la società ha evidenziato i suoi sforzi anche sul fronte del “lavoro umano”. In particolare, Facebook ha dichiarato che ha più di 150 persone esclusivamente o principalmente focalizzate nella lotta contro il terrorismo. Facebook ha anche citato le sue partnership con i governi e l’industria, sottolineando di lavorare con le ONG ed altre istituzioni per fermare il diffondersi della propaganda terroristica.
Facebook sia ostile ai terroristi
Nel suo post sul blog ufficiale, Facebook afferma di voler rendere il social network ostile per i terroristi. “Ostile”, parola estremamente significativa: siccome è impossibile pensare di censurare in modo completo e definitivo qualsivoglia contenuto (anche perché diventa complesso stabilire un limite esatto tra propaganda, odio, opinione e guerra santa), il concetto di base è la necessità di strutturare la piattaforma affinché diventi complesso diffondere idee di guerra. Gli algoritmi non saranno un argine di periferia, ma un agente resistente che impedirà il diffondersi di video e altre forme di propaganda attraverso il network. Queste interessanti precisazioni fanno parte di un progetto che punta a dare una serie di risposte che per spiegare la posizione di Facebook su alcuni argomenti controversi: se il mondo chiedeva a Facebook una reazione, ecco la risposta.
Facebook, insieme ad altre social network, è stato accusato di offrire spazi ai terroristi all’interno della sua piattaforma. La palla viene rilanciata ora nel campo di YouTube, altro network indiziato da molti come veicolo di propaganda per la facile viralizzazione che consente. Anche Google, come Facebook, dovrà rispondere in qualche modo alle accuse, dimostrando di poter quantomeno ostacolare l’uso dello strumento per finalità distorte. Tale risposta è in parte già giunta nei mesi passati, ove Google e Facebook hanno iniziato questo percorso congiunto sul quale oggi il social network sembra voler accelerare.
Il ruolo dell’Intelligenza Artificiale
«Vogliamo trovare i contenuti dei terroristi immediatamente, prima che la gente della nostra community possa vederli». Già oggi Facebook lavora a questo compito grazie ad un piccolo esercito di controllori, tuttavia grazie all’Intelligenza Artificiale è possibile andare oltre, offrendo una verifica proattiva in grado di velocizzare i tempi entro cui i contenuti da filtrare finiscono nelle maglie del controllo.
A tal fine gli sviluppatori di Menlo Park hanno messo sul piatto una serie di strumenti, la cui funzione è quella di generare pattern utili all’identificazione di contenuti di matrice terroristica:
- Image matching: analisi di foto e video per riconoscere fin dal caricamento possibili contenuti pericolosi;
- Analisi del linguaggio: disamina delle tracce audio per individuare specifiche espressioni che possano ricondurre ad organizzazioni quali ISIS o Al Qaeda: il linguaggio è infatti parte fondamentale del messaggio veicolato e l’analisi di quest’ultimo è fondamentale ai fini dell’obiettivo;
- Rimozione di cluster di terroristi: studi pregressi hanno consentito di dimostrare come la radicalizzazione online avvenga tramite il lavoro di piccoli gruppi, la cui identificazione potrebbe consentire di disabilitare account chiave sgonfiando l’attività online di cellule attive nel reperimento di nuovi adepti;
- Recidività: la lotta ai falsi account deve diventare anzitutto una lotta a quanti li aprono in modo seriale, cercando in ogni modo di poter portare la propria propaganda (sotto falso nome) sul network;
- Collaborazione cross-platform: WhatsApp e Instagram saranno parte del progetto, potendo così condividere una maggior mole di informazioni e poter quindi rallentare con maggior incisività, e su più fronti, l’attività propagandistica dell’integralismo.
Alla tecnologia sarà affiancata l’intelligenza e l’esperienza umana, supporto fondamentale in grado di agire con complementarità rispetto alla prima disamina dell’Intelligenza Artificiale. Inoltre la collaborazione con altre grandi compagnie (Microsoft, Google, Twitter), con le istituzioni e con altri partner potrà offrire ulteriori canali per approfondire il lavoro già in corso.
Una nota particolare è offerta in merito alla crittografia: siccome i terroristi spesso utilizzano tecnologie avanzate per poter trasmettere i propri messaggi senza che i filtri li possano fermare, Facebook chiede che le istituzioni possano offrire al network una maggior capacità di analisi (operazione delicata poiché facilmente potrebbe andare a detrimento della libertà dei cittadini) con cui ostacolare in modo più efficiente questo tipo di circolazione delle comunicazioni propagandistiche.