Twitter, stop ai pregiudizi con il Responsible Machine Learning

Il fondatore di Twitter dà avvio a un progetto che analizzerà il modo in cui gli algoritmi del suo social facilitano il pregiudizio online.
Twitter, stop ai pregiudizi con il Responsible Machine Learning
Il fondatore di Twitter dà avvio a un progetto che analizzerà il modo in cui gli algoritmi del suo social facilitano il pregiudizio online.

Il fondatore di Twitter, Jack Dorsey, ha annunciato l’avvio del progetto “Responsible Machine Learning”, ovverosia un programma che mira ad analizzare in che modo gli algoritmi in uso dal suo social facilitino, anche involontariamente, delle forme di pregiudizi online, per potervi poi porre rimedio istruendo adeguatamente l’IA. L’obiettivo è quello di capire innanzitutto “come e perché” il procedimento sistematico di calcolo di Twitter sembri preferire mostrare le foto di individui di carnagione bianca nelle bacheche degli utenti, e il modo in cui il feed si presenta alle persone a seconda della loro etnia e alle raccomandazioni sui contenuti di tipo politico.

Cos’è il Responsible Machine Learning?

Con la crescente integrazione dell’intelligenza artificiale e dei sistemi autonomi nel tessuto social, per le varie piattaforme è importante impegnarsi in maniera tale da sviluppare algoritmi sempre più sofisticati e in grado di prevenire e mitigare le conseguenze impreviste di queste tecnologie. Nel caso di funzioni correlate alla gestione di commenti, o della fruibilità o meno di certi argomenti e immagini, per un corretto funzionamento è necessario che l’intelligenza artificiale sia istruita in modo adeguato, così da poter mantenere costantemente una certa attendibilità di “giudizio”, ricorrendo al cosiddetto apprendimento automatico responsabile.

Nel caso di Twitter, il Responsible Machine Learning approntato dal ML Ethics, Transparency and Accountability (META), team composto da ingegneri, ricercatori e data scientist, mira in particolare a migliorare l’apprendimento automatico dell’IA attraverso l’analisi della formula originale, da correggere poi se necessario per evitare l’incorrere negli stessi errori, ovverosia, come scritto prima, preconcetti razziali, di genere o politici. E questo anche nell’ottica di offrire contenuti appropriati per ciascun utente in base alle proprie idee e passioni.

D’altronde, nella sua visione futura dei social, Jack Dorsey crede fermamente che dovrebbero essere gli utenti a poter scegliere l’algoritmo che a sua volta seleziona e raccomanda i contenuti più adatti a loro, anziché affidarsi a quello proprietario proposto di default dalla piattaforma. A meno che non scelgano loro stessi di affidarsi a quest’ultimo, che però a quel punto deve dimostrarsi intelligente in maniera tale da soddisfare le esigenze di coloro che vi si affidano. Il fondatore e amministratore delegato del noto social è infatti sicuro che la sua società, come del resto quello e delle altre piattaforme, trarrebbero vantaggio dall’avere accesso a “un corpus di conversazioni molto più ampio” da cui far emergere contenuti rilevanti per gli utenti.

Ti consigliamo anche

Link copiato negli appunti