La tragedia, dolosa o meno, che ha colpito la cattedrale di Notre Dame il 15 aprile ha messo in primo piano, dopo l’evento stesso, l’ancora scarsa utilità degli algoritmi nel semplificare le nostre vite. Poco dopo l’avvio di alcuni live streaming che riprendevano le fiamme scaturite dal cuore centrale della cattedrale, YouTube ha cominciato a mostrare filmati correlati sulla parte inferiore del box di visualizzazione. Solo che invece di indicare altri contenuti riguardanti l’incendio ha pensato bene di rimandare gli utenti a informazioni sull’11 settembre.
Il motivo? Tutto nelle parole dello staff della piattaforma:
Lo scorso anno abbiamo lanciato sul sito i pannelli informativi con link a fonti di terze parti, come Encyclopedia Britannica e Wikipedia, per annotare eventuali contenuti di disinformazione. Questi pannelli sono attivati in automatico da un algoritmo e talvolta i nostri sistemi effettuano una scelta sbagliata. Stiamo disabilitando la funzione per i live streaming relativi all’evento.
Nella pratica, quando YouTube pensa che un video sia una bufala, non lo censura in toto ma piazza sotto di lui dei link di approfondimento che aiutino a discernere la verità dalla finzione. Un esempio? Se vedo una diretta di un attacco terroristico in una città e YouTube trova altri contenuti identici, assimilati per luogo, data, ora, persone riprese, allora posso capire meglio di cosa si tratta. Diversamente, se non vi sono filmati riconducibili al primo può verificarsi una doppia motivazione: sto guardando il video originale, ovvero quello della fonte principale oltre al quale non ve ne sono; sto guardando un fake, qualcosa di artefatto e per nulla appurato.
L’algoritmo di fact checking di YouTube, non trovando elementi correlabili all’incendio di Notre Dame ha trovato nel suo archivio l’attentato alle Torri Gemelle dell’11 settembre, consigliandone la visione e gli approfondimenti. Due parole per descrivere l’accaduto: machine learning. La macchina impara dal mondo circostante, lo osserva, e poi pone inferenze proprie; se la macchina non ha alcunché da imparare, perché non vi sono abbastanza dati a disposizione, può permettersi di sbagliare, come ha appena fatto.
Cosa sarebbe accaduto se un simile sistema fosse una regola applicata universalmente a YouTube? Avremmo ancora più confusione di quanto ve n’è oggi nel distinguere verità e finzione. Certo, l’algoritmo è in fase beta, lo stanno sperimentando negli Stati Uniti e in Corea, ed è un problema ancora maggiore. Facebook, di norma, avvia questi test in Nuova Zelanda o Australia, già di per sé paesi non così piccoli, ma Google no, ha deciso di farlo in due dei più grossi mercati mondiali del digitale.
Il risultato? Una manipolazione, non voluta ma tant’è, di un fatto; una diversa rappresentazione della realtà che, se per la maggior parte di noi non voleva dire nulla (la correlazione tra New York e Parigi), per altri ha potuto evidenziare un legame (terrorismo?), uno stesso stato d’animo (angoscia), una stessa ambientazione (fuoco e crolli) che dipendono da sensazioni e percezioni individuali e non concretezza di eventi; qualcosa di cui un algoritmo non può farsi portatore e suggeritore.
E allora…#buongiornounCaffo