Ammettiamolo, abbiamo un problema sui social network: è diventato quasi impossibile tenere conversazioni positive su fatti reali e fonti affidabili. Non che questa difficoltà riguardi solo l’ambiente online, ma non c’è dubbio che allo stato attuale ci si trova sempre più di fronte a due scelte: affrontare elmetto in testa il confronto su tutti i temi “politici”, sperando di aumentare la serendipity di chi è rinchiuso nella propria bolla di opinioni di conforto, oppure rinchiuderci nella nostra. C’è però qualcosa che gli algoritmi possono fare, ed è l’idea tutta italiana di Loudemy, una piattaforma che risponde da sola ai tanti, troppi contenuti aggressivi e male informati con commenti preimpostati. In pratica, un assistente virtuale anti bufale.
Il professor Burioni passa diverso tempo ormai a scrivere post su Facebook per smontare le bufale sui vaccini, è ormai il baluardo dell’approccio scientifico al tema in contrasto a una intera gamma di opinioni male informate e disinformate che talvolta lo prendono di mira. Qualche settimana fa, il social media manager di Unicef Italia passò una intera giornata a rispondere con calma olimpica a una schiera di haters scagliati da polemiche generiche e prive di fondamento contro le Ong impegnate nel soccorso nel Mediterraneo, e fu tale la sensazione della solitudine di un solo uomo contro un esercito coordinato di leoni da tastiera che si meritò la definizione di “eroe”.
Stai offendendo @guardiacostiera dato che operiamo a bordo delle loro navi. Sono un corpo dello Stato, dei veri eroi. Dovresti vergognarti.
— UNICEF Italia (@UNICEF_Italia) May 1, 2017
Se l'infermiere che soccorre un ferito riceve uno stipendio parli di "business delle ambulanze"? L'umanità è in ciò che fai e in come lo fai
— UNICEF Italia (@UNICEF_Italia) May 1, 2017
Si "caricano" le bestie, non le persone. E quando sono su un gommone che affonda non si chiede il passaporto. Dovremmo?
— UNICEF Italia (@UNICEF_Italia) May 1, 2017
Morti in mare aumentano perché i trafficanti ormai azzerano misure di sicurezza. Dopo che ha pagato, è indifferente se il migrante vive o no
— UNICEF Italia (@UNICEF_Italia) May 1, 2017
Com’è più volte stato raccontato, l’hate speech non è però una buona ragione per pensare di censurare tutto, inoltre il tema hate speech ed etica della comunicazione e della informazione non esclude di certo i professionisti, i mass media, tutto l’ecosistema. Non può essere ridotto a responsabilità individuali dei cittadini comuni, come spiega oggi l’ennesimo approfondimento eccellente di Valigia Blu. Allora, il povero utente solitario, che si sente travolto da un flusso senza sosta di contenuti aggressivi, disinformati, parziali, e da un atteggiamento sordo, pregiudiziale di chi li diffonde, che può fare?
Hate speech, etica e responsabilità giornalistica https://t.co/S7YUblY345 via @valigiablu
— arianna ciccone (@_arianna) June 29, 2017
Loudemy
L’idea è venuta a Selene Biffi, una imprenditrice seriale, founder di Plain Ink: proprio durante il suo lavoro in Afghanistan, dove opera a livello scolastico per recuperare il grave analfabetismo di un paese devastato da 40 anni di guerra, ha assistito alle reazioni scomposte, ingiuste, disinformate, al gravissimo attentato dello scorso luglio. Per quanto si fosse impegnata a far comprendere la complessità del fatto e il contesto politicamente difficilissimo del paese, ha vissuto la sensazione – che conosciamo tutti – della inutilità del proprio contributo rispetto alla numerica prepotenza della massa “ignorante”. Ogni istante sui social è come avere a che fare con un esercito (talvolta anche arruolato da forze politiche) di bot umani da indirizzare verso i propri avversari, per attacchi che sono il corrispettivo “civico-politico” dei DDoS tramite Internet of Things. Come rispondere, dunque? Con dei bot veri.
«Ero tornata in Italia e da lì a poco ci sono state le elezioni americane», racconta Selene. Anche in quel caso si è visto come siano state diffuse una quantità di fake news, l’ultima delle quali è quella che ha giustificato il ritiro dagli accordi sul cambiamento climatico.
Trump si è ritirato dagli accordi sul clima e in un attimo sui social si sono diffusi contenuti che negano la validità della teoria del riscaldamento globale. Ho pensato che se si potesse rispondere automaticamente con fonti pubbliche, reputate, neutrali, si smorzerebbero le falsità e il linguaggio d’odio che spesso ne deriva per difenderle a spada tratta.
[embed_fb]https://www.facebook.com/sandbox/posts/1776524215721862[/embed_fb]
I ghiacciai dell’artico hanno perso il 10% negli ultimi trent’anni. Rifugiato non è soltanto chi fugge da una guerra. Sono solo alcune delle informazioni che si potrebbero postare sotto le condivisioni più stupide visibili nella Rete, ma bisognerebbe farlo h24 sette giorni su sette. La chatbot creata da Selene, Loudemy, lo fa. In automatico. Basta registrarsi, scegliere gli argomenti che più stanno a cuore, selezionare le fonti che i chatbot utilizzeranno – presi da organizzazioni internazionali, istituti di ricerca, enti di vario genere – e collegare questi ai propri account. L’algoritmo, ideato in Italia dalla Enteeractive di Padova, si occupa di scansionare i post relativi alla propria attività, individuare contenuti di un certo tipo, e si inserisce nelle conversazioni su Facebook, Twitter, Instagram e Youtube al posto dell’utente stesso. Con una serie molto breve, quadripartita, di frasi: inizio, concetto, uscita e fonte.
Al momento questo assistente di fonti di qualità è una Beta, funziona in modo ancora primitivo, ma c’è già tutto il concetto: si selezionano gli interessi da 10 macroaree, quali ambiente, diritti umani, donne, animali, economia e via dicendo, si flaggano argomenti e tipi di risposta, il pannello di controllo consente anche di monitorare l’attività e di modificare le risposte possibili e il loro tono. «Volevo qualcosa di diverso dalla classica bassa interazione di un servizio privato», racconta Selene Biffi. «Non si tratta di ordinare una pizza o rispondere a qualche semplice quesito, ho parlato con diversi programmatori prima di trovare la soluzione, e sono felice di averla trovata in Italia».
«Un progetto sfidante», racconta Davide Squarise, l’informatico che si è occupato dello sviluppo della piattaforma. «Soprattutto per l’analisi semantica dei contenuti in base a parametri di ricerca». Le formule matematiche per fonemi e sentiment, come capita sempre con questi programmi, sono già stabilite, ma l’algoritmo è totalmente proprietario nel suo motore, in grado di integrare diversi social. Ed è l’unico a farlo: tutti le chatbot generalmente postano solo un social perché sono ambientate. Loudemy integra quattro social, presto ne arriveranno altri due (Linkedin e Pinterest), e si sta già pensando al machine learning per migliorare la reattività dei bot.
La bontà di questo sistema è che non blocca gli utenti, non segnala contenuti inappropriati e non cancella i commenti di altri, ma offre informazioni alternative e nuove prospettive attraverso testi scritti, file audio, immagini e video raccolti e preimpostati. La versione per le organizzazioni consente anche di integrare negli interventi automatici anche i propri report e le proprie fonti. Al momento è un’idea, nata solo dieci giorni fa, ma è promettente; avrà bisogno di diversi implementazioni per svilupparla ad alti livelli, è una sperimentazione, ma nell’ambiente accademico non mancano gli studi che possono aiutare a prendere le decisioni giuste, così come le piattaforme stesse potrebbero investire in questo tipo di bot che invece di vendere qualcosa si occupano di diritti umani, ambiente, tolleranza. Corretta informazione.
C’è qualcuno che vuole forse negare ne abbiamo bisogno ben più di una pizza?