Un nuovo studio dell’Università dell’Indiana ha esaminato 400 mila articoli di “bassa credibilità” su Twitter, scoprendo che sono stati condivisi da oltre 14 milioni di messaggi in un anno. L’interesse di un simile dato? Beh, il 31% delle notizie false diffuse sul microblog sono frutto del 6% dei bot presenti online.
Il coautore dello studio, l’italiano Giovanni Luca Ciampaglia, ritiene che l’efficacia di questi software automatizzati non sia esclusivamente nel loro numero e nella velocità con cui rendono virali contenuti senza qualità ma nella possibilità di dare l’illusione che una notizia sia davvero popolare, facendola apparire più affidabile. Ecco cosa ha detto ad Ars Technica: “Le persone tendono a fidarsi maggiormente dei messaggi che sembrano provenire da molti individui: i bot sfruttano questa fiducia rendendo i post così diffusi da spingere gli altri a condividerli ulteriormente”.
Una volta avviata questa fase iniziale, non è più semplice distinguere una fake news da un fatto reale, almeno non basandosi solo sulla popolarità che ha avuto in rete. Gli autori hanno scoperto una classe di bot che mira in modo specifico a “concretizzare” le bufale, lavorando proprio sulla base dell’engagement tra gli utenti (post, retweet, preferiti). Su questioni politiche molto ricercate, creare un universo parallelo del genere non è difficile: i sostenitori di determinate fazioni amano amplificare i fatti, anche senza prima verificarli, dunque seguire il treno di catene fatte partire dai bot è quanto di più semplice e convincente vi sia, almeno su Twitter.
Questa capacità di diffondere rapidamente i messaggi attraverso i social network può essere una forza inequivocabile se sfruttata correttamente. Ad esempio, i robot potrebbero incrementare la condivisione di post circa gli attacchi terroristici o i disastri naturali, arrivando prima di quanto non possano fare coloro che sono direttamente presenti sul luogo. Sfortunatamente, in questo momento sono troppo impegnati a punzecchiare i nostri pregiudizi con spietata efficienza.