A partire da oggi Instagram inizierà ad avvisare gli utenti quando stanno per pubblicare un contenuto “potenzialmente offensivo” sia associato alle foto che per i video, quelli che vengono caricati nel feed principale. Questo almeno in alcuni “Paesi selezionati”, ma la funzione arriverà in tutto il mondo nei prossimi mesi.
Se un utente di Instagram pubblica qualcosa che gli strumenti basati sull’intelligenza artificiale del servizio ritengono possa essere dannoso, l’app genererà una notifica, avvisando che il testo “sembra simile ad altri che sono stati segnalati“. Incoraggerà quindi l’utente a modificare la didascalia del post, ma darà loro anche la possibilità di pubblicarlo invariato.
La nuova funzionalità si basa su uno strumento di intelligenza artificiale che Instagram ha introdotto per i commenti a luglio. La società afferma che spingere le persone a riconsiderare la pubblicazione di commenti potenzialmente dannosi ha prodotto risultati “promettenti” nella lotta contro il bullismo online.
Questo è solo l’ultima di una serie di misure che Instagram ha adottato per affrontare il bullismo sulla sua piattaforma. A ottobre la piattaforma ha lanciato una nuova funzionalità “Restrict” che consente agli utenti di vietare il bullismo, mentre l’anno scorso ha iniziato a utilizzare l’IA per filtrare i commenti offensivi e rilevare in modo proattivo il bullismo in foto e didascalie.
La differenza in questo caso è che Instagram si affida agli utenti per individuare quando uno dei loro commenti supera la linea invisibile dell’offesa. È improbabile che fermi i bulli più determinati, ma si spera che possa proteggere le persone da insulti e vessazioni.