Il problema "sociale" della moderazione dei contenuti sui social media

Torno su un tema a me caro: quello del controllo dei contenuti sulle piattaforme social. Un vecchio ma ancora attuale articolo di Wired aveva già mostrato il contesto di degrado socio-economico degli operatori preposti a questa attività. Il titolo tradotto in italiano è «I lavoratori che eliminano le foto di cazzi e decapitazioni dal tuo newsfeed di Facebook» (Wired, 23 ottobre 2014: https://www.wired.com/2014/10/content-moderation/).
L'argomento era stato approfondito anche più di recente da alcuni siti web italiani. Segnalo ad esempio: "Numeri e prospettive dei moderatori di contenuti online" (Lettera43,
30 Settembre 2018) e "La moderazione dei contenuti sui social funziona male e andrebbe completamente rivista" (ValigiaBlu, 5 maggio 2019)
Negli scorsi giorni, da un documento svelato da The Verge e dal Financial Times, inviato a gennaio ai moderatori di Youtube e Facebook, emerge che ai lavoratori viene richiesto di firmare una dichiarazione in cui si dicono consapevoli che la loro attività potrebbe causare disturbi post-traumatici da stress; e che è stato attivato un apposito supporto di "caring". L'articolo sul sito CorrereComunicazioni.it: "Rischio burnout per chi lavora nei social, YouTube e Facebook sotto accusa".

Commenti