Da circa due anni Facebook tenta di arginare la diffusione delle fake news con la collaborazione di “fact-checker” di terze parti. Queste società indipendenti controllano principalmente la veridicità degli articoli condivisi sul social network, ma esistono altre forme di disinformazione che possono ingannare gli utenti. L’azienda di Menlo Park ha ora esteso il fact-checking alle foto e ai video, tipologie di contenuti molto popolari su Facebook.
Come avviene per gli articoli anche per foto e video viene utilizzato un modello di machine learning che analizza diversi input, tra cui i feedback degli utenti, per identificare contenuti potenzialmente falsi. Foto e video vengono quindi inviati ai partner che sfruttano tecniche di verifica visuale, come il “reverse image searching” e l’analisi dei metadati (data, ora, dispositivo, tipo di file, posizione geografica e altri). Il riconoscimento ottico dei caratteri (OCR) viene invece usato per estrarre testo dalle foto e confrontarlo con il titolo dell’articolo.
Dopo mesi di ricerca e test, Facebook ha raggruppato foto e video in tre categorie principali. La prima include contenuti modificati e creati ad arte, ad esempio una persona inserita in un’immagine oppure un video di una persona che pronuncia parole in realtà mai dette. La seconda riguarda contenuti fuori dal contesto, ad esempio foto/video di persone scattate/registrate in un luogo e spostate in un altro. La terza, infine, comprende affermazioni testuali o audio falsi, ad esempio parole attribuite ad una persona, ma pronunciate da un’altra.
Tutti i contenuti falsi (articolo, foto e video) vengono indicati chiaramente nel news feed e il loro numero viene ridotto con il passare del tempo. Le pagine che generano fake news riceveranno meno visite e meno guadagni pubblicitari. È tuttavia possibile richiedere correzioni se il contenuto viene erroneamente considerato falso. Facebook sottolinea che gli amministratori delle pagine sono responsabili dei contenuti condivisi dai loro follower.