Pur senza scendere troppo nel dettaglio (lasciando intendere come la notizia importante sia il risultato, mentre il modus operandi vada in qualche modo tutelato), Facebook ha annunciato come sia in atto una fase di continua evoluzione nella propria lotta intestina al materiale che inquina le bacheche del social network. Nel mirino, ancora una volta e sicuramente con maggior enfasi rispetto al passato, fake news, falsi account e spam.
Il messaggio pubblicato da Shabnam Shaik, Technical Program Manager on the Protect and Care Team di Facebook, evidenzia l’imprinting di un approccio che non intende debellare le fake news attraverso una rimozione puntuale (operazione pressoché impossibile), bensì riducendo i margini di monetizzazione per rendere sempre meno conveniente tale attività. Nel momento in cui il social network sarà stato in grado di ridurre a sufficienza i margini di manovra dei malintenzionati, per questi ultimi sarà molto meno conveniente operare su Facebook alla ricerca di click e truffe: Facebook diventerà un terreno meno fecondo per il malaffare e i malintenzionati si sposteranno presumibilmente altrove, ove i margini di successo saranno maggiori.
I pattern del falso
Per arrivare a ciò occorre una stretta immediata e strutturale, che Facebook ha posto in essere attraverso l’individuazione di alcuni precisi pattern d’azione: ci sarebbero schemi comuni, insomma, dietro a ogni azione legata al falso, la cui individuazione può dunque essere legata più ad una analisi formale che non ad una disamina semantica dei contenuti. Facebook non vuole essere troppo chiaro in ciò perché, una volta svelati gli indizi con cui individua i pattern molesti, faciliterebbe il compito di quanti tenteranno di aggirarli. Il gruppo spiega tuttavia che i ritmi di pubblicazione, la ripetitività dei post e altri parametri consentono di individuare la matrice dello spam, dei falsi account ed in molti casi anche delle fonti di fake news. Con queste ultime in particolare, è stata rilevata una forte incidenza in temi finanziari, laddove si tenta presumibilmente di deviare l’opinione pubblica per modificare equilibri dai quali trarre lucro: tale considerazione ha evidentemente consentito di approfondire la natura dei post per stringere ulteriormente le maglie.
La battaglia contro i contenuti molesti su Facebook deve partire da lontano e va combattuta su più fronti. La maggior consapevolezza e il maggior senso critico degli utenti sono stati affrontati da apposite informative, mentre l’intervento sugli algoritmi è iniziato in questi giorni e proseguirà con miglioramenti quotidiani. I primi risultati sono già stati raggiunti: solo in Francia ben 30 mila account fasulli sono già stati rimossi, il che potrebbe portare nel giro di poco tempo ad un lavoro di pulizia in grado di togliere già molto rumore di fondo. Gli account più pericolosi sono però quelli che operano al confine con la legalità, quelli che meglio mascherano le proprie azioni tra falso e propaganda: in questa zona d’ombra sarà molto più complesso per Facebook agire, ma poterlo fare su una piattaforma già ripulita dal sottobosco dello spam sarà sicuramente un elemento facilitante.
Facebook, insomma, dimostra di voler fare la propria parte: algoritmi intelligenti, pattern pre-determinati, studi approfonditi sulla natura e sull’economia del falso. Lo farà anche e soprattutto a proprio vantaggio, perché ripulire il network significa anzitutto migliorare l’esperienza degli utenti e la fiducia che questi ultimi potranno riporre sui contenuti incontrati. Ma il lavoro messo in pratica con quest’opera di sviluppo non va intesa come risolutiva, né come limitata: è un buon passo avanti, che andrà completato dalle istituzioni (dal punto di vista regolamentativo, ove è molto facile far danni in realtà), dagli utenti (il cui senso critico è l’unico vero argine in grado di agire, ma è altresì il maggior anello debole della catena) e dagli inserzionisti (il cui intervento premiante o punitivo è la maggior leva per gli investimenti sulla lotta al falso).