Mark Zuckerberg torna sulla questione bufale, stavolta mostrando un piano in sette punti per affrontare un problema che specialmente negli Usa è diventato politico. L’accusa dei media – decisamente ipocriti, visto che non possono certo chiamarsi fuori – è quella di aver permesso, per mancato controllo, che una quantità esorbitante di contenuti falsi pro Trump influenzasse il voto. Una parte degli stessi dipendenti di Menlo Park pare minacci di voler trovare da sola una soluzione, essendo convinta di questa teoria. Zuck lo è molto meno, tuttavia le bufale rappresentano comunque un problema.
Il fondatore di Facebook ha affermato di considerare folle l’idea che il social network abbia favorito l’elezione di Donald Trump a 45° presidente degli Stati Uniti. Diciamolo subito: ha perfettamente ragione. Nella baraonda di commenti e analisi che hanno fatto scempio di logica, sociologia e statistica, Zuck sembra essere uno dei pochi a restare lucidi. Probabilmente perché conosce davvero le dinamiche della sua creatura e i suoi algoritmi. Ecco perché il lungo post nel quale riprende l’argomento ruota su un principio: prendere sul serio la responsabilità di ciò che accade nel sito senza assumersela per ciò che solo teoricamente ne sarebbe una conseguenza indiretta.
Il nostro obiettivo è collegare le persone con le storie e sappiamo che le persone vogliono informazioni precise. Abbiamo lavorato su questo problema per un lungo periodo di tempo e prendiamo sul serio questa responsabilità. Abbiamo fatto progressi significativi, ma c’è ancora lavoro da fare. Abbiamo sempre fatto affidamento sulla nostra comunità per aiutare a capire ciò che è falso e ciò che non lo è. Chiunque su Facebook può segnalare qualsiasi collegamento e usiamo queste segnalazioni insieme ad altre informazioni per capire quali storie si possono tranquillamente classificare come disinformazione, clickbait, spam e truffe: penalizziamo questo contenuto nel News Feed così che sia meno probabile che si diffonda.
[embed_fb]https://www.facebook.com/zuck/posts/10103269806149061[/embed_fb]
Un conto però è l’oggetto matematico, un altro la pretesa di fare di Facebook arbitro della verità. Concetto filosofico dal quale il ceo di Menlo Parl vuole tenersi, saggiamente, lontano:
Noi crediamo nel valore di dare alla gente una voce, che significa lasciar dire alle persone quello che vogliono ogni volta che questo è possibile. Dobbiamo stare attenti a non scoraggiare la condivisione delle opinioni o a limitare per errore i contenuti accurati. Non vogliamo essere arbitri della verità, vogliamo fare affidamento sulla comunità e i soggetti terzi.
La strategia in sette punti
Con uno strappo alla regola Zuckerberg spiega pubblicamente il lavoro ancora in progresso che Facebook intende fare per contrastare la misinformation restando nella cornice “al di là del bene e del male”, cioè confermando sia l’interesse ad abbattere le bufale e il loro modello di business sia al contempo respingendo ancora una volta le richieste di una fetta di popolazione e di media democratici volte a fargli assumere un ruolo pienamente editoriale (quindi politico). Il piano consta di sette punti, che passano dal rafforzamento degli algoritmi alla semplificazione delle segnalazioni.
- Rilevamento più forte. La cosa più importante che possono fare gli ingegneri, spiega, è «migliorare la capacità di classificare la disinformazione». I sistemi tecnici per individuare ciò che la gente segnala come falso, prima che lo facciano, sulla base di un apprendimento del sistema.
- Facilità di segnalazione. Rendere molto più facile la segnalazione delle bufale dovrebbe aiutare il sito a farle sparire più velocemente. Attenzione: questo metodo è però utilizzato da coloro che considerano bufale sempre e solo quelle degli altri. Perciò è immaginabile come possa costituire uno strumento, già oggi, di social bombing.
- La verifica da parte di terzi. Questa è un’ammissione importante. Zuckerberg sostiene che «ci sono molte organizzazioni serie di fact checking: abbiamo in programma di imparare da loro e di più».
- Avvertenze. Somiglia all’etichetta elaborata da Google. In pratica, anche Facebook sta esplorando varie ipotesi su come mostrare avvisi quando la gente legge o condivide contenuti già segnalati da terze parti o dagli utenti stessi.
- Qualità degli articoli correlati. Un’altra piccola notizia da parte di Zuck: «Stiamo alzando il livello per le storie che compaiono in “articoli correlati” sotto i collegamenti nel News Feed».
- Taglio economico. Tranne rari casi, la disinformazione non ha affatto una natura ideologica, è invece una forma di spam. In altri termini, ai ragazzi macedoni che hanno prodotto una montagna di bufale contro la Clinton interessava soltanto guadagnare soldi e i fan di Trump avevano caratteristiche migliori per crederci o comunque condividerle. Il sesto punto del piano di Facebook è probabilmente quello decisivo: trovare il modo di interrompere la continuità tra le bufale e i falsi annunci politici.
- Ascolto degli esperti. Proprio perché Facebook non ritiene di essere una media company, continuerà a lavorare coi giornalisti e altri operatori del settore notizie per capire meglio i loro sistemi di controllo e la loro sensibilità culturale. Un’idea che incontra la simpatia e l’accordo, ad esempio, di Jeff Jarvis.
Facebook non c’entra nulla
Col passare delle settimane, a parte qualche analista superficiale o matematici che si credono sociologi (nuova categoria emergente) è sempre più chiaro come la nevrosi post-voto ha rischiato di fare di Facebook un facile capro espiatorio. La composizione del voto, l’origine delle condivisioni delle fake news illustrata da un eccellente articolo di Jonathan Albright, che ha mostrato come in realtà questi contenuti si sono diffusi con metodi vari e anche più tradizionali, e infine gli stessi reportage che i media americani si sono (finalmente) decisi di fare negli Stati delle provincia continentale, dove Trump ha conquistato l’elezione, hanno ridotto molto questa teoria dalle basi fragili.
🎯📝📉Breaking data analysis on sources of #fakenews: “The #Election2016 Micro-Propaganda Machine” https://t.co/nUvfolSBWl @CharlieBeckett
— Jonathan Albright (@d1gi) November 18, 2016
Individuare l’ingegnerizzazione degli snodi, quantificare la diffusione della cattiva informazione (qualunque cosa significhi) è soltanto un grande “come”, non un perché, non va perciò confuso con una spiegazione del voto. È un grave errore credere che le persone condividano della spazzatura e di conseguenza votino Trump. È più probabile e storicamente dimostrato il contrario, cioè che il bisogno sociale, creando il bisogno di avere argomenti a supporto, produca un interesse verso i contenuti di rinforzo, anche di conforto a una decisione già presa, a una posizione già costituita. Il centro è l’uomo, non Internet, e la sua disponibilità mentale a cercare in un serbatoio ideologico-morale quei contenuti che diano “vestibilità” ai propri orientamenti, che spesso – se studiati davvero – hanno a che fare con profonde radicate eredità educative, culturali, che raccontano delle famiglie, dell’antropologia locale, delle trasformazioni dovute alla divisione sociale del lavoro.
Inoltre, perdendoci le domande sul “senso” limitandoci ad osservare il “come”, paradossalmente facciamo un piacere proprio ai produttori di bufale, ai quali andrebbe contrapposta la potenza positiva della Rete e un sano orrore per il determinismo tecnologico. Considerando sempre tutte le variabili informative di cui è coprotagonista il web. La domanda che nessuno sembra porsi è se Facebook e Twitter siano davvero così informativi e soprattutto se gli utenti li ritengano tali: non sarà che condividono quelle che sono palesemente falsità per il gusto di farlo, senza crederci davvero, giusto perché idonee ad opporsi e aggredire una parte avversa? A nessuno passa questo dubbio per la testa: che venga prima l’orientamento personale e poi il comportamento online.