Netejar Facebook d'imatges violentes, una feina amb conseqüències psicològiques

Empleats subcontractats que treballen a la Torre Glòries eliminen imatges amb contingut explícit
Victòria Miró / Oriol Esteve Actualitzat
TEMA:
Xarxes socials

Perquè internet i les xarxes socials siguin els llocs atractius, segurs i agradables on volem passar el temps, cal que algú filtri les imatges que hi ha que poden ferir la nostra sensibilitat.

És la feina dels moderadors de continguts, que eliminen la porqueria que molta gent aboca a les xarxes socials.

Els "netejadors" d'internet

Qui són els moderadors? Què fan? Se'ls coneix com els "netejadors" de les xarxes socials, els vigilants que eviten que ens arribin imatges i vídeos de violència explícita, com suïcidis en directe, contingut pornogràfic o pedòfil, decapitacions o tortures.

 

Actualment, les Filipines, l'Índia o Indonèsia són els països on treballen més moderadors. Una feina al servei del primer món tòxica, mal pagada i a l'ombra, on l'objectiu és filtrar 2.000 imatges per hora 10 hores al dia.

El documental "The Moderators", estrenat el 2017, és un dels primers que va revelar aquest món, fins ara ocult.

Segons explica Ciaran Cassidy, coautor del documental, malgrat la duresa de les fotografies i els vídeos que han de veure, aquests treballadors tenen molta pressió i se'ls exigeix treballar de pressa:

"Hi ha molta pornografia a internet, abús infantil, imatges violentes, i tot això s'ha de treure. I les empreses contracten gent per fer net".  

"Hi ha persones que duraran 2 o 3 dies i marxaran. I l'empresa ho entén."


 

Es calcula que a tot el món hi ha més de 50.000 moderadors treballant per empreses subcontractades per gegants com Facebook, Twitter, YouTube o Google. Una feina que, malgrat els avenços en els algoritmes i en intel·ligència artificial que detecten imatges o vídeos pertorbadors, encara no es pot automatitzar del tot. Per això els moderadors han de acabar decidint sobre imatges denunciades per algun usuari o que la mateixa plataforma ha marcat com a sospitosa d'incomplir les normes d'ús. 

"Fake news" a la Torre Glòries

Des de fa uns mesos, aquesta feina també es fa a Barcelona, a la Torre Glòries.

Va ser abans de l'estiu que molts mitjans van publicar que Facebook hi obriria un gran centre per lluitar contra les notícies falses, les "fake news". Es va dir que buscaven més de 500 persones per fer feines de "community manager".

 

"Decapitacions, tortures a animals, suïcidis en directe"

Però, en molts casos, l'oferta de feina era per fer de moderador de continguts. Ho explica una candidata que no va arribar a acceptar la feina, i que prefereix mantenir l'anonimat:

"A la meva entrevista, les paraules "fake news" no van sortir en cap moment i va durar 5 hores. En canvi van insistir molt en altres temes."

"Em van dir: volem saber com reaccionaries si t'haguessis d'enfrontar a continguts de cert tipus. I van treure una llista: decapitacions, tortures de presoners de guerra, maltractament animal, maltractament infantil, violacions, pederàstia, vídeos d'abusos a menors, suïcidis en directe o autolesions."

 

"Jo no m'havia trobat mai amb una feina en què havia de veure vídeos d'aquesta violència, i amb contingut destructiu per la ment de les persones. I el que més em va sorprendre va ser com de camuflat havia estat tot."

L'oferta no la feia Facebook, sinó una empresa subcontractada anomenada Competence Call Center. Les atrocitats esmentades en l'entrevista es resumien a l'oferta de treball en només una línia a la lletra petita on s'especificava:

"Caldrà supervisar imatges explícites o contingut ofensiu."


La candidata a moderadora va preguntar amb quina freqüència es podria trobar amb alguna imatge d'aquest tipus. Li van respondre que almenys un cop per setmana segur que s'enfrontaria a una fotografia o vídeo dels esmentats a la llista.  

"No tinc cap ganes de comprometre la meva salut mental. Quan em van trucar per dir-me que havia passat el procés de selecció els vaig dir que no, ni per tots els diners del món". 

"A llarg termini et tornes insensible"

Segons Anna Romeu, coordinadora de psicòlegs al SEM i especialista en estrès posttraumàtic, les conseqüències per als moderadors d'internet poden ser molt greus:

"El problema no és veure una imatge impactant, el problema és veure'n repetidament, i sobretot per causa de la feina. Què passa? Doncs el que ens passa és que aquelles imatges queden gravades en el nostre cervell i no queden ben processades."

"A llarg termini el que fas és tornar-te insensible en moltes àrees de la teva vida: es perd la capacitat d'empatia, canvia la capacitat de relacionar-te amb els altres, etc. A nivell personal. té efectes bastant perjudicials per a les persones."

 

Tant Facebook com Competence Call Center no han volgut col·laborar amb TV3, ni per entrar a gravar la seva seu a la Torre Glòries ni per explicar la feina que hi fan.

Aquesta opacitat també afecta els moderadors, que han firmat una clàusula de confidencialitat. De tota manera, l'empresa poc o molt és conscient del risc en què posa els treballadors, perquè als candidats els asseguren que tenen un equip de 20 psicòlegs a la seva disposició.


Demandes a Facebook i Microsoft

Precisament als Estats Units alguns casos de moderadors que treballaven per Facebook i Microsoft i que han patit conseqüències psicològiques han arribat als jutjats.

En un d'aquests casos, el de l'extreballador de Microsoft Henry Soto, va perdre la feina perquè no podia suportar estar a prop d'un ordinador:

"El senyor Soto estava avergonyit pels seus símptomes, que incloïen atacs de pànic en públic, dissociacions, depressions, al·lucinacions visuals i la impossibilitat d'estar a prop d'ordinadors o de nens petits, fins i tot, de vegades, el seu propi fill, perquè li provocaven records d'actes horriblement violents contra nens dels quals ha estat testimoni."

ARXIVAT A:
Xarxes socials Internet Facebook
VÍDEOS RELACIONATS
El més llegit
AVUI ÉS NOTÍCIA
Anar al contingut