Ci sono 3000 buoni motivi per cui Facebook ha bisogno di 3000 persone in più all’interno del proprio team di controllo dei contenuti. Ma ci sono anche 3000 buoni motivi per cui un utente dovrebbe capire l’esatta natura di questa mossa, cosa ha disegnato il contesto entro cui emerge e quali ne saranno le conseguenze reali.
3000 persone in più: perché?
Cosa significa passare da 4500 a 7500 “controllori”? Di fatto non significa nulla. La mossa più interessante annunciata da Mark Zuckerberg è infatti in realtà un’altra: entro i prossimi mesi saranno messi a disposizione strumenti più rapidi e diretti per la segnalazione di contenuti contrari alle policy d’uso del social network. Più semplicemente: nel momento in cui si incrocia un post, un video o una diretta che contravvengono alle regole della community sarà possibile segnalarlo con più facilità a Facebook. Inizia quindi la seconda fase, quella che pone la responsabilità in capo al social network, il quale si assume l’onere di verificare rapidamente tali segnalazioni per eliminare il contenuto in caso di effettiva violazione.
Sta tutto in questa dinamica. Mettere nelle mani degli utenti strumenti più semplici di segnalazione, infatti, porterà ad un vorticoso aumento delle stesse. Tale aumento implica una più capillare copertura delle violazioni, ottenendo quindi in linea teorica un sistema più efficace di segnalazione; al tempo stesso c’è da prevedere un aumento esponenziale dei falsi positivi o dei casi in “zona grigia”, il che aumenterà notevolmente il rumore di fondo dando vita ad una forte complessità nella gestione di una siffatta mole di casi da vagliare.
Di fronte ad un (facilmente prevedibile) aumento delle segnalazioni in arrivo, Facebook si dota di 3000 persone ulteriori per la gestione del controllo. Si raddoppia il personale umano, insomma, per far fronte al raddoppio ipotetico delle segnalazioni: nulla più, nulla meno.
3000 persone in più: una foglia di fico
Serve avere 3000 controllori in più? Certo, è sicuramente utile. Ma è utile per qualcosa che non è ciò che in molti si attendono. Un esempio su tutti arriva dal recente passato: se dovesse ripresentarsi un caso come quello dell’omicidio in diretta, infatti, nulla al mondo potrà mai prevederne l’esito e nessuno potrebbe bloccarne a priori la trasmissione (soltanto la famigerata “pre-crimine” di Hollywood potrebbe qualcosa). Tutto si ricondurrebbe al meccanismo di cui sopra: strumenti più semplici dovrebbero condurre gli utenti ad una immediata segnalazione, un più alto numero di controllori dovrebbe portare ad una immediata verifica e con un po’ di fortuna il video sarebbe rimosso dal social network nel giro di poche ore. Cosa sarebbe cambiato rispetto a quanto effettivamente accaduto? Pressoché nulla.
3000 persone in più a controllare migliaia e migliaia di segnalazioni tra miliardi e miliardi di contenuti provenienti da milioni e milioni di persone significano poco o nulla: che si abbia un cucchiaio o un cucchiaino, il mare non lo si svuota comunque. Quel che cambia è però a livello di percezione: Facebook avrà aumentato i controlli ed avrà calmierato le accuse che vorrebbero mettere alla berlina il network in tutto il mondo. Soverchiato dagli attacchi per la spettacolarizzazione della morte, le fake news, lo spam e mille altre derive, Zuckerberg ha scelto la via della diplomazia: consegna agli accusatori un surrogato di soluzione, nutre il protagonismo dei propri antagonisti e di fatto potrà così continuare indisturbato a pensare alla monetizzazione del suo impero.
Cosa rappresenta dunque questo esercito di 3000 persone aggiuntive? Una foglia di fico. Perché in questo Eden abbiamo improvvisamente scoperto la nostra nudità e i nostri peccati, dunque occorre nasconderne le vergogne. Una foglia di fico necessaria, sia chiaro. Ma pur sempre una foglia di fico.
Chi deve fare cosa?
Zuckerberg non può far molto, ma soprattutto non deve. Chiedere a Zuckerberg di controllare la società intera significa abdicare ad una forma di autocontrollo che la società stessa deve incarnare nelle proprie dinamiche. Chiedere a Zuckerberg sistemi di controllo più puntuali è corretto e doveroso; l’aumento dei controllori è corretto e doveroso; migliorare il dialogo tra utenti, social network e autorità è corretto e doveroso. Bisogna però fare attenzione nel distinguere ruoli e responsabilità, evitando pericolose sovrapposizioni: Facebook non punti davvero a risolvere i mali del mondo, ma si limiti a svolgere il proprio ruolo nell’evidenziare i casi di pericolo. Del resto quando si vede un incendio non ci si tuffa tra le fiamme, ma si chiamano i Vigili del Fuoco.
Questi revisori ci aiuteranno inoltre a migliorare il processo di rimozione dei contenuti che non consentiamo su Facebook come i discorsi d’odio e lo sfruttamento di minori. Continueremo a lavorare con le nostre comunità locali e le forze dell’ordine che si trovano nella posizione migliore per garantire aiuto a coloro che ne hanno bisogno – o perché sono in procinto di farsi del male, o perché si trovano in pericolo.
Gli utenti da parte loro dovranno sfruttare al meglio i meccanismi di segnalazione facendosi parte attiva di questa dinamica: invece di salvare i video pericolosi e distribuirli su più piattaforme, clicchino immediatamente sugli allarmi in via di predisposizione, così da tentare di contribuire a salvare una vita o bloccare un video di dubbio gusto. Il valore collettivo sarà molto maggiore della somma del valore dei singoli interventi, perché questa è la risultanza di una sinergia applicata su una community da un miliardo e mezzo di persone.
Le autorità non rinuncino alle proprie prerogative e non cedano all’azienda parte della propria giurisprudenza. Nascano piuttosto meccanismi sempre più rapidi ed efficaci per trasferire le segnalazioni provenienti dalla Rete, affinché si possa intervenire con sempre maggior efficacia e rapidità laddove dovesse essercene bisogno. Cooperare non significa delegare a Facebook parte del lavoro, ma significa integrare le dinamiche proprie a quelle aziendali del colosso. Il social network è uno strumento senza pari che può dare molto anche nella lotta al crimine: Zuckerberg non deve sentirsi né in dovere, né nella posizione di potersi assumere responsabilità non proprie: concedere al mercato eccessivo potere è cosa destinata a ritorcersi contro la società civile. L’equilibrio nei ruoli, nei compiti, nei limiti e nelle assunzioni di responsabilità è invece un esercizio sano che può e deve stare alla base di un processo di formazione democratica quotidiana.
3000 addetti per una para-soluzione
Non si speri che i 3000 controllori in più risolvano i problemi di Facebook, perché occorre anzitutto definire tali problemi ed inoltre bisogna capire che non sono problemi di Facebook, ma di tutti. 3000 controllori in più non aiuteranno a ridefinire l’etica, né le regole, né i confini di quella zona d’ombra tra quel che è lecito e quel che è inopportuno, quel che è lecito e quel che è tollerabile, quel che è giusto da quel che è sbagliato. 3000 controllori in più aiuteranno a smussare gli spigoli, a rendere il social network più politically-correct, ma nulla più di questo.
Capirlo è un primo passo nella direzione di una para-soluzione. O almeno nella direzione di una maggior consapevolezza. Perché tutti sappiamo cosa c’è dietro la foglia di fico, ma la teniamo comunque indosso a salvaguardia della nostra e dell’altrui tranquillità.