Facebook, Twitter, Microsoft e YouTube hanno ufficialmente aderito a nuove normative europee che prevedono l’accorciamento dei tempi di cancellazione dei contenuti online di natura “odiosa”, il cosiddetto hate speech. D’ora in poi, entro 24 ore dalla notifica questi siti saranno chiamati alla rimozione dei contenuti, ritenuta necessaria come parte di una strategia volta a combattere espressioni di odio e di propaganda terroristica in tutta l’UE. Le nuove regole, tra l’altro, obbligano anche a promuovere “contro-narrazioni indipendenti”. E già si parla di condizionamento della libertà di espressione.
Il codice di condotta (pdf) approvato ieri è lungo solo tre pagine e come spesso capita con questi regolamenti è più di principio che pragmatico. I concetti cardine sono prevenzione e velocità: da un lato si intende che le disposizioni che prevedono il reato di incitamento all’odio vengano applicate dai singoli stati, dall’altro questa azione deve essere integrata nelle piattaforme online quando ricevano una valida segnalazione. Vera Jourová, la Commissaria europea per la Giustizia, fa rientrare il discorso d’odio nella illegalità, correlandolo con la propaganda terroristica. Si vuole togliere spazio vitale alla seconda ragionando in termini complessivi con il primo, secondo il motto “no place for hate”.
I recenti attacchi terroristici hanno ribadito l’urgente necessità di combattere l’illecito incitamento all’odio online. Purtroppo i sociali network sono uno degli strumenti usati da gruppi terroristici per radicalizzare giovani adepti e dai razzisti per diffondere l’odio e la violenza. (…) Mi compiaccio dell’impegno preso dalle aziende informatiche di tutto il mondo di esaminare entro 24 ore la maggior parte delle richieste giustificate di rimozione di contenuti che incitano all’odio, e se del caso di cancellare tali contenuti o di renderli inaccessibili.
#NoPlace4Hate. Find the press release: https://t.co/FdgLKgMJTu and the code of conduct: https://t.co/Yip9h3TfT3 pic.twitter.com/UyFEaGziQ0
— Věra Jourová (@VeraJourova) May 31, 2016
Cosa dice il codice
Il codice di condotta non inventa nulla. Si basa su una legge del 2008 sul reato di violenza verbale e comportamenti che incitano all’odio e alla discriminazione, e su questa incardina un codice dove le aziende si impegnano a farla rispettare, come d’altronde fanno, o meglio cercano di fare, coi loro strumenti di segnalazione e rimozione. Tanto che nel comunicato congiunto, tutti si affrettano a chiarire come questa battaglia contro il discorso d’odio è già parte dei loro standard. La responsabile europea della politica pubblica di Twitter, Karen White, ha osservato che «su Twitter non c’è posto per comportamenti improntati all’odio», la direttrice per la politica pubblica e le relazioni governative di Google, Lie Junius, ha dichiarato che da sempre vietano «qualsiasi illecito incitamento all’odio», specificando che dispongono di sistemi efficienti «per esaminare le richieste giustificate e rimuovere i contenuti illegali entro 24 ore». D’altronde, è la stessa società che da quasi due anni ottempera al diritto all’oblio. Anche Monika Bickert, capo del settore strategico globale di Facebook, racconta della difficoltà di gestire 1,6 miliardi di utenti, esortando utenti ad utilizzare gli appositi meccanismi di segnalazione quando si imbattono in contenuti che ritengono non conformi. John Frank, vicepresidente per gli affari di governo UE della Microsoft, ha ricordato il recente impegno sulla propaganda terroristica.
Cosa cambia? Aderendo al codice le aziende si impegnano a organizzarsi ancora di più per rispondere velocemente alle segnalazioni con procedure chiare che dovranno essere fornite agli stati membri tramite le autorità competenti. In tal modo, dice il codice, «si consentirà anche agli Stati membri di acquisire ulteriore familiarità con i metodi per riconoscere le forme illegali di incitamento all’odio online e segnalarle alle aziende informatiche». Il resto sono tutti impegni generici di formazione interna del personale e campagne esterne di sensibilizzazione.
La protesta delle associazioni
Questo codice non piace ai movimenti, agli attivisti di EDRi (European Digital Rights), di Access Now, non piace alla EFF (Electronic Frontier Foundation). Ritengono sia errato e pericoloso che i governi spingano delle società private ad assumersi maggiori responsabilità in compiti simili a quelli di polizia, lamentando inoltre che le organizzazioni civili sono state “escluse sistematicamente” dai negoziati. Una delega che ha delle incognite. Uno stile piuttosto riconoscibile, quello della Jourová (già notato con il Privacy Shield), che implementa le responsabilità degli stakeholder senza preoccuparsi troppo della cornice politica-democratica nella quale sono prese le decisioni.
We have withdrawn from the @EU_Commission IT Forum discussions on countering hate speech online. Here's why. https://t.co/a1rIW0uvB0
— Access Now (@accessnow) May 31, 2016
Che le corporazioni ottengano più potere di quanto abbiano già sulla libertà di espressione, forse non è vero o dimostrabile, avendone già moltissimo. Ci sono però due aspetti controversi: accorciando i tempi si aumenta esponenzialmente il rischio di cancellare contenuti solo discutibili, associabili genericamente, senza un pensiero profondo; inoltre, anche in Europa con questo codice si accetta che Facebook, Microsoft, Twitter e Youtube si occupino di contro-narrative rispetto all’Isis, il che è davvero singolare essendo materiale politica delicata e che meriterebbe il contributo di think tank di un altro spessore. Tanto che la EFF parla di downgrade per l’Europa, che nella sua sconfortante debolezza culturale affida la voce più importante di tutte nella lotta al terrorismo, la parola, a società americane più che distanti dai problemi che esplodono nel vecchio continente.