Facebook ha infine rimosso un discusso video all’interno del quale era ritratta una scena estremamente violenta, girata in Messico e contenente un atto di decapitazione, di cui nel recente passato si è già ampiamente discusso. Ora a far discutere è l’esitazione del social network: sebbene la violenza del video fosse conclamata, infatti, il team di Mark Zuckerberg ha evitato di intervenire per lungo tempo, lasciandolo circolare liberamente e consentendo in parallelo alla polemica di lievitare.
A stridere è la difformità di giudizio con cui Facebook applica i propri filtri ai contenuti. Se in precedenza le immagini di seni nudi erano state filtrate senza grosse ritrosie (per poi aprire almeno alle immagini di allattamento), ora una decapitazione circola senza resistenza sul social network lasciando passare l’idea per cui una scena para-pudica sia peggiore di una scena gravemente violenta. Facebook si è difeso in prima battuta mettendo in piedi un processo alle intenzioni: se il video circolava era perché oggetto della condanna degli utenti. Facebook, insomma, ha visto come fattore positivo l’atteggiamento degli utenti nei confronti del video e non come una istigazione alla violenza.
Un giudizio, però, fragile. Troppo fragile. Tanto fragile da cedere nel giro di pochi giorni. Il video, inizialmente denunciato dalla BBC, è infine stato fermato poiché la stessa Facebook si è trovata ad ammettere come un contenuto tanto violento possa arrecare disturbo a prescindere, soprattutto poiché nulla costringe chi effettua la condivisione a precisi disclaimer.
Il nodo rimane tuttavia da sciogliere. Il video della decapitazione ha soltanto fatto emergere la difficoltà di analizzare i singoli casi in assenza di principi morali precisi e regole certe. Facebook si impegna a trovare un nuovo modo per un giudizio “olistico” meglio composto, così da censurare in modo più efficiente i contenuti segnalati dalla community, ma la sfida appare ad oggi ardua.
Miliardi di persone si affidano al network di Mark Zuckerberg per informarsi, passare il tempo libero, condividere emozioni e “far gruppo” assieme ai propri contatti. All’interno di questa massa, però, vi sono anche utenti di giovane età, nonché sensibilità più fragili di altre, ed è dovere preciso del servizio trovare un modo per tutelare tali profili con strumenti più efficaci di quelli messi in campo fino ad oggi. La pressione che sta giungendo da più parti costringerà Facebook ad una riflessione più approfondita sul tema. Ad oggi il gruppo sembra voler opporre al problema lo scudo della consapevolezza: il problema non è filtrare, ma avvertire su quel che sta per succedere. Così facendo ogni utente può scegliere per sé, può ottimizzare i propri filtri e può decidere quale tipo di esperienza intenda avere. Il ragionamento ha una base solida, ma uno sviluppo complesso e finora embrionale: gli strumenti messi a punto sono ancora estremamente deboli e l’inerzia di troppi utenti rende anche fragile l’applicazione stessa del principio di auto-regolamentazione.
Ma del resto il mondo dei social media è giovane: regolamentare al meglio una community da un miliardo di persone non può che generare attriti, con casi specifici che sfiorano lo scandalo ed occasioni continue per crescere, migliorare e strutturare l’intera community.