Non è di certo la prima volta che se ne parla, ma ormai è chiaro che le condizioni di lavoro dei moderatori di Facebook diventano sempre più difficili. The Verge è riuscita a far parlare tre ex moderatori della piattaforma, coloro che si occupano di visionare, cancellare e quindi ripulire il social dai contenuti offensivi, violenti e che inneggiano all’odio. Una delle aziende che si occupa di questo per Facebook si trova a Tampa, in Florida: è Cognizant, che dà lavoro a quasi 800 persone. Tre di queste hanno deciso di rompere il “patto di non divulgazione”, mostrando anche la loro faccia.
Tra questi c’è ad esempio Michelle Bennetti, che ha visto un cucciolo di cane impiccato, oppure un maiale bruciato vivo. Scene raccapriccianti, viste in un ufficio che di certo non assomiglia al campus di Facebook a Menlo Park, in California, che dispone di un bar per i burrito, postazioni per i tapis roulant, per la meditazione e un giardino sul tetto. No, all’interno di Cognizant i dipendenti sono esposti alle più basse nefandezze commesse dagli esseri umani.
Nel 2018 un operatore di questa società è addirittura morto mentre era alla sua scrivania, per attacco di cuore. Secondo il rapporto i moderatori ricevono solo due pause di 15 minuti, una pausa pranzo di 30 minuti e una pausa “wellness” di 9 minuti. Non solo sono sovraccarichi di lavoro, ma i moderatori dei contenuti sono costretti a vedere immagini o video di violenza inaudita, pedopornografia, incitamento all’odio, teorie cospirative e persino omicidi giorno dopo giorno, in modo che possano eliminare contenuti orribili prima che raggiungano miliardi di utenti di Facebook.
Melynda Johnson ha raccontati di aver visto dei bambini lanciati ripetutamente a terra e una donna, forse la madre, tentare di soffocarne uno. Questo e molto altro per una paga di 15 dollari l’ora, circa 28,8 mila dollari l’anno e in tutto il mondo Facebook ha circa 15mila moderatori.
Ho visto una ragazza cercare di soffocare la sorellina fino a farle uscire il sangue dal naso. Sono contenuti come questo che dovevi vedere tutti i giorni. Vedere dolore e sofferenza, e questo ti crea dentro un profondo senso di rabbia.
Alcuni dopo il lavoro hanno cominciato a prendere psicofarmaci, con tanto di diagnosi di disturbo da stress post traumatico. Per rispondere a tutto questo Facebook ha annunciato qualche tempo fa di star lavorando a un sistema di intelligenza artificiale per moderare contenuti del genere, anche se si è ancora lontani da un risultato soddisfacente che non preveda gli umani esposti a questi orrori.