Moderazione dei contenuti, il lavoro (quasi) più pericoloso del 21º secolo


Un velo di segretezza circonda questo settore. Nessuna delle principali piattaforme di social media è stata disposta a dire quanti moderatori di contenuti sono assunti per conto di aziende di outsourcing, ma non c’è dubbio che questo sia un settore grande e in rapida crescita: solo su Facebook nel 2021, ogni giorno sono stati segnalati tre milioni di post per la rimozione. L’indagine di Hesa Magazine riportata da Equal Times è assolutamente inedita e ci porta in un mondo sconosciuto. “Ci sono sicuramente alcuni moderatori di contenuti che non hanno sofferto di problemi di salute mentale legati al lavoro, ma io non li ho incontrati”, afferma la sociologa e informatica Milagros Miceli, che ha studiato il settore della moderazione dei contenuti negli ultimi sei anni. “Non ho dubbi che la moderazione dei contenuti, come l’estrazione del carbone, sia un lavoro pericoloso”. L’estrazione del carbone, nota per la proliferazione della ’malattia del polmone nero’, è un classico esempio di lavoro pericoloso, ma ci sono solo circa 200 mila minatori di carbone rimasti in tutta l’Unione Europea. Ci sono molti altri lavori che comportano pericoli, ma pochi in cui ’ri -schio per la salute’ è ancora scritto nella descrizione del lavoro. La moderazione dei contenuti può, tuttavia, qualificarsi come la nuova eccezione. Proprio come l’esposizione alla polvere di silice ha causato malattie polmonari nei minatori, i contenuti tossici e inquietanti senza fine sono una minaccia per la salute mentale di coloro che sono impiegati per interagire con essi quotidianamente. Davvero inquietante. Del resto, vi siete mai chiesti cosa ci sia dietro ai social? I moderatori di contenuti sono essenzialmente le guardie di sicurezza dei social media. Sono incaricati da piattaforme come Facebook e TikTok di rimuovere i contenuti che violano le loro linee guida. I post che filtrano includono incitamento all’odio, contenuti violenti, grafici e pornografici (incluso lo sfruttamento sessuale dei minori), contenuti provenienti da organizzazioni proibite come gruppi terroristici, bullismo e molestie, suicidio e autolesionismo. Ma come identificarli? I contenuti che raggiungono gli schermi dei moderatori di contenuti sono segnalati da un utente o identificati da un sistema di intelligenza artificiale come potenziali candidati per la rimozione. Una parte importante di ciò che fanno i moderatori di contenuti è etichettare i contenuti che vedono sui loro schermi per addestrare l’intelligenza artificiale a diventare più competente nell’identificare i contenuti dannosi. Chris Gray è il primo ex moderatore di contenuti a portare Meta in tribunale in Europa. Ha lavorato a Dublino per Cpl, azienda di outsourcing per Meta, dal 2017 al 2018. Solo anni dopo essere stato licenziato, Gray ha iniziato a fare i conti con l’impatto che il lavoro aveva avuto su di lui. Solo dopo aver incontrato un giornalista che lo ha sollecitato a raccontare il suo lavoro, ne ha capito i limiti. “Non ne avevo parlato con nessuno. Non ne avevo parlato con mia moglie. L’Nda (accordo di non divulgazione) mi era stato martellato dentro: 'Non parlare mai del lavoro'. Quando ho iniziato a raccontarglielo, ho avuto un crollo totale, ho perso completamente il controllo di me stesso. Mi sono seduto in una caffetteria con le lacrime che mi rigavano il viso. Il giornalista ha insistito perché andassi da un medico, ed è iniziato tutto da lì”. Gray ha ricevuto una diagnosi di disturbo post-traumatico da stress (Ptsd) e nel 2019 ha intentato una causa contro Cpl e Meta presso l’Alta corte irlandese, sostenendo danni psicologici dovuti all’esposizione ripetuta a contenuti estremamente disturbanti. Il caso è ancora in sospeso. Negli Stati Uniti, un caso simile che coinvolgeva i moderatori di contenuti Meta è stato risolto in via stragiudiziale,

con i lavoratori che hanno ricevuto danni fino a 50 mila $ a persona. A Gray non è stato ancora offerto un accordo extragiudiziale e afferma che non ne accetterebbe uno se gli venisse offerto. “La moderazione dei contenuti è come l’industria del tabacco negli anni ’60. Tutti sanno che è dannosa, ma non è stato ancora dimostrato e c’è un enorme interesse personale nel mantenere la finzione che non sia un problema. Voglio che venga dimostrato da un tribunale che questo lavoro è dannoso per la salute dei lavoratori. Una volta accertato che è dannoso, possiamo iniziare a discutere su come mitigare il rischio”. Equal Times spiega come sebbene il lavoro dei moderatori di contenuti serva alle grandi piattaforme di social media, i lavoratori vengono assunti quasi esclusivamente tramite società di outsourcing, aziende che sono tipicamente chiamate “Bpo” (business processing outsourcing). Alcune attività di moderazione dei contenuti possono essere delocalizzate, con le Filippine in particolare come un importante centro globale per la moderazione dei contenuti. Tuttavia, Antonio Casilli, esperto di 'click work' (di cui la moderazione dei contenuti è una sottosezione), afferma che le piattaforme non possono evitare di impiegare moderatori di contenuti all’interno dell’Ue. “A volte la moderazione dei contenuti deve avvenire in Europa per motivi legali, perché gestiscono contenuti e dati soggetti al Gdpr (il Regolamento generale sulla protezione dei dati Ue). Inoltre, ci sono ragioni linguistiche. Non si trovano persone in Africa, ad esempio, che parlino lingue specifiche, come il lituano o lo svedese. Alcune cose non possono essere esternalizzate in paesi a basso reddito”. Secondo Casilli, il settore europeo dei moderatori di contenuti è diventato altamente concentrato negli ultimi anni, con poche grandi aziende che hanno acquistato i rivali e dominato il settore. Teleperformance , Appen e Telus sono tre dei principali attori. Questi Bpo organizzano il settore in un ambiente di ufficio in stile call center, dove la sorveglianza dei lavoratori è intensiva e la segretezza è una priorità assoluta. 'I loro contratti sono estremamente rigidi sugli accordi di non divulgazione, sono in realtà Nda mascherati da contratti di lavoro', spiega Casilli. “In questi contratti non si parla molto dei diritti dei lavoratori, tra i quali si conta anche un suicidio. Fondamentalmente, si pone molta enfasi sulla segretezza e la riservatezza. E non si menzionano i rischi specifici per la salute associati a questo lavoro.” Un’altra caratteristica tipica del settore dei moderatori di contenuti è che i lavoratori sono migranti. In un sito portoghese ogni lavoratore con cui hanno parlato era un migrante: dalla Russia, dalla Polonia, dal’India e dalla Turchia. Nei siti tedeschi, la maggior parte dei lavoratori erano migranti, compresi molti dall’Asia e dall’Africa. “Sono contrattualmente ricattati perché il loro status lavorativo è spesso legato al loro visto”, spiega Casilli. “Quindi se smettono di lavorare per queste aziende, o se denunciano, corrono il rischio di essere deportati”. Dai Bpo agli Nda ai visti per migranti, le grandi piattaforme di social media sono protette dalla responsabilità per le condizioni di lavoro dei loro moderatori di contenuti da strati di negazione, segretezza ed emarginazione. Ma dietro questi muri di opacità ci sono persone vere con storie vere, e alcune di loro sono determinate a farsi sentire, nonostante le barriere che incontrano nel parlare apertamente.

Chris Gray, come Ayda Eyvazzadeh, ex moderatrice di contenuti iraniana a Berlino, non ha dubbi sui danni del lavoro: “Ho vissuto alcuni momenti davvero traumatici', dice. “Ricordo di aver visto un bambino che veniva sfruttato sessualmente, e quell’immagine mi è rimasta impressa. Ti senti molto solo e solitario quando fai quel lavoro; molto disperato e insicuro. Vedevo le immagini nei miei incubi. Mi svegliavo più stanco di quando ero andato a dormire”. Eyvazzadeh è stata licenziata nel novembre 2023 dopo aver lavorato per un’azienda di outsourcing per quasi cinque anni. Afferma che la combinazione di sorveglianza umana e digitale intensifica le pressioni del lavoro. I moderatori dei contenuti hanno Kpi (’indicatori chiave di prestazione’) che devono rispettare. “Se qualcosa che vedi è davvero difficile, puoi lasciare la scrivania, ma in quel momento devi ricordarti di impostare sul tuo computer che sei in 'benessere'”, spiega Eyvazzadeh. “Ma se i supervisori pensano che stai usando il benessere più di quanto dovresti, interverranno. Diranno: 'Il tuo tempo di produzione è un po’ inferiore al previsto, sei stato troppo in benessere'. Quindi sei pressato ad aumentare il tuo tempo in produzione diminuendo il tuo 'benessere'”.

Se i sindacati hanno del lavoro da fare in quest’area, sicuramente anche i regolatori dovrebbero esaminarla attentamente. Il Digital Services Act ( Dsa) dell’Ue del 2022 ha aumentato significativamente l’o nere per le piattaforme di controllare i contenuti, portando alla crescita del settore dei moderatori di contenuti in Europa, ma il Dsa non ha prestato attenzione alla sicurezza dei moderatori di contenuti stessi. A maggio 2024, la Commissione europea ha annunciato una nuova indagine su Meta per potenziali violazioni del Dsa in relazione alla sicurezza dei bambini che utilizzano Instagram e Facebook. Ma più le piattaforme assumono moderatori di contenuti per far fronte alla pressione politica dell’Ue, più i lavoratori saranno messi a rischio: un equilibrio delicato che deve essere affrontato. Per il moderatore dei contenuti Chris Gray “tutti coloro che hanno figli si preoccupano che i loro figli non siano esposti a cose orribili sui social media, ma quanti di quei genitori si preoccupano che ci sia un mucchio di persone in una stanza da qualche parte che deve guardare queste cose più e più volte per impedire ai propri figli di vederle?”.

Raffaella Vitulano

Commenti

Post più popolari