Social

Il costo sociale dei contenuti di Facebook. Il lato oscuro dei moderatori


“The Trauma Floor” di Casey Newton è una denuncia di un sistema malato e nocivo, che influenza e coinvolge centinaia di lavoratori di Facebook e altre piattaforme online. L’articolo d’inchiesta, pubblicato sul sito americano The Verge appartenente al gruppo Vox Media, vede luce nella sede americana di Facebook della città di Phoenix, in Arizona, portando allo scoperto dettagli inquietanti sulle implicazioni di revisionare i contenuti di un grande social network.

Il sistema

Gli attacchi di panico sono all’ordine del giorno, dopo l’ennesimo omicidio che un’impiegata, una delle decine di moderatori intervistati anonimamente, si trova a dover visionare durante il processo di controllo dei contenuti che vengono caricati sulla piattaforma.

Il sistema funziona abbastanza semplicemente: quello che molti utenti dei social siano convinti facciano i bot è in realtà in gran parte svolto da normali persone, ovvero visionare molteplici ore di contenuti caricati sulla piattaforma e decidere quali possono restare ed essere visibili, e quali invece devono essere eliminati per non violare le policy di pubblicazione. Un regolamento che è ovviamente stato redatto in precedenza dall’azienda, ma che ricade pur sempre e inevitabilmente anche sotto il giudizio e la morale del singolo impiegato che lo applica in base a ciò che si trova davanti. La decisione inoltre deve essere presa in meno di trenta secondi e per circa 400 volte al giorno, e nel caso in cui il giudizio si riveli errato a pagarne le spese sarà lo stesso moderatore che vedrà il suo punteggio calare, fornendo un diretto segnale all’azienda che potrebbe in seguito prendere provvedimenti.

I contenuti

I contenuti che vengono caricati sulla piattaforma appartengono a diverse categorie, da battute razziste, a video espliciti di molestie cruente, fino ai più assurdi video complottisti.

La lista degli argomenti va avanti, peggiorando, e se già assistere un singolo caricamento di questo tipo può essere disturbante, continuare a guardarli per ore può essere deleterio. Secondo quanto riportato da Casey Newton, in alcuni ex-impiegati si stanno riscontrando sintomi analoghi a quelli di un disturbo da stress post-traumatico, ma che non lavorando più per la compagnia non hanno più diritto ad alcun supporto. Il giornalista ha riscontrato anche un diverso tipo di danno: alcuni sono stati influenzati da quegli stessi contenuti che erano chiamati a moderare, tra i dipendenti infatti c’è un terrapiattista, un negazionista dell’olocausto e chi non ritiene più che l’11 Settembre sia stato un attacco terroristico.

image from The Verge

La vita dei moderatori

Il contratto dei moderatori prevede un accordo di non divulgazione.

I dipendenti sono tenuti a non parlare con nessuno del coinvolgimento emozionale che il loro lavoro comporta. Gli impiegati non possono sfogarsi né con familiari né con amici o professionisti esterni di ciò a cui assistono durante le ore di lavoro. Lo stress accumulato non può essere in alcun modo portato all’esterno dell’edificio, e l’unica condivisione possibile è quella con i propri colleghi, nelle brevi pause consentite.

“If you’re not allowed to talk to your friends or family about your job, that’s going to create some distance. You might feel closer to these people. It feels like an emotional connection, when in reality you’re just trauma bonding”

Sara, ex moderatrice

Un consulente è occasionalmente a disposizione dei moderatori, ma questi ultimi dichiarano che il supporto sia insufficiente o inadeguato, ritrovandosi a dover gestire lo stress generato in modi alternativi. Gli impiegati sono stati trovati ad avere rapporti sessuali lungo le scale o nelle stanze dedicate all’allattamento (la cui soluzione per l’azienda è stata rimuovere la possibilità di bloccare le porte), molti utilizzano droghe durante le ore di lavoro e le battute con umorismo nero aiutano a superare con una risata amara la consapevolezza acquisita della cruda e nera realtà di cui gli umani sono artefici.

“We were doing something that was darkening our soul”

Li, ex moderatore

Viene evidenziata anche la differenza di stipendio tra un ingegnere della piattaforma e un moderatore di contenuti. Circa 240 mila dollari all’anno per il primo e meno di 30 mila dollari per il secondo. Uno schema che a oggi garantisce a Facebook un ampio margine di guadagno.

Il pezzo pubblicato su The Verge ha chiaramente origine in America ma lo stesso problema potrebbe estendersi ad altre sedi nel mondo.

E adesso?

Lo scorso primo di aprile il fondatore Mark Zuckerberg si è recato a Dublino per un incontro con tre deputati dell’«International Grand Committee on Disinformation and Fake News» per informare e aggiornare gli Stati partecipanti su quali saranno gli impegni dell’azienda per rimediare agli errori che l’hanno messa in ombra negli ultimi mesi. Tutto ciò che vogliono in questo momento i legislatori di tutto il mondo è una maggior tutela degli utenti del social network, ma questo non impedirà l’affievolirsi di un problema altrettanto rilevante e già presente, ovvero dei filtri umani che saranno necessari per portare a termine alcuni degli impegni presi, come limitare le informazioni nocive sulla piattaforma.





Source link

Show More

Leave a Reply

Pin It on Pinterest

Share This

Share this post with your friends!