Twitter ha appena pubblicato le sue nuove regole per la gestione di media manomessi, al fine di garantire maggiore protezione a chiunque utilizzi il social. La società afferma che non sarà più possibile condividere i video deepfake che potrebbero “causare danni” e che indicherà, tramite apposita dicitura, i tweet che li contengono per aiutare gli utenti a capire cosa è reale e cosa è stato modificato.
Nel determinare se i media sono stati modificati, Twitter contrassegnerà un contenuto nel caso in cui siano state aggiunte o rimosse informazioni visive o uditive (come il doppiaggio). Giudicherà inoltre il contesto e se è probabile che il deepfake abbia un impatto sulla sicurezza pubblica o causi gravi danni di immagine. Di seguito è possibile dare un’occhiata a un “cinguettio” molto esplicativo.
https://twitter.com/TwitterSafety/status/1224799838895607809
A partire dal 5 marzo, Twitter dunque segnalerà i tweet con video deepfake attraverso un’apposita etichetta. Dovrebbe inoltre mostrare un avviso agli utenti prima che ritwittino o apprezzino i media modificati, ridurre la visibilità di tali tweet e impedire che vengano consigliati.
Questi cambiamenti sono il risultato di uno sforzo più ampio del social network per combattere i deepfake. Twitter ha promesso queste regole alla fine dell’anno scorso e ha redatto linee guida basate sul feedback degli utenti. La piattaforma ha già vietato i deepfake pornografici e, con l’avvicinarsi delle elezioni del 2020, è probabile che Twitter voglia prevenire scandali di deepfake politici e campagne di disinformazione.
Di recente, il social dell’uccellino ha introdotto le Reactions, simili a quelle disponibili già da tempo su Facebook, per rispondere ai Messaggi Diretti.