Els treballadors havien de revisar continguts de gran duresa: abusos sexuals, discursos d'odi i violència (Unsplash)

Contingut tòxic a ChatGPT: treballadors kenians van cobrar 2 euros l'hora per netejar-lo

OpenAI els hauria contractat per filtrar els textos i aquesta feina hauria provocat diversos casos traumàtics entre els treballadors, fruit de la duresa del contingut amb què treballaven

Miquel Cuenca MartínezActualitzat

Una investigació de la revista Time ha descobert que l'empresa OpenAI, creadora de la famosa eina d'intel·ligència artificial ChatGPT, hauria pagat menys de dos dòlars per hora a treballadors de Kènia perquè filtressin centenars o milers de textos "tòxics" d'internet per fer que l'aplicació fos més segura.

Els treballadors tenien la funció de classificar i filtrar dades tòxiques proporcionades per OpenAI, que descrivien en alguns casos situacions amb detalls gràfics com l'abús sexual infantil, l'assassinat, el suïcidi, la tortura, l'autolesió i l'incest.

Aquesta feina hauria provocat diversos casos traumàtics entre els treballadors, fruit de la duresa del contingut amb el qual havien de treballar. "Va ser una tortura", explica un testimoni al diari Time.

Pantalla d'inici al xat d'intel·ligència artificial ChatGPT
Pantalla d'inici al xat d'intel·ligència artificial ChatGPT

La intel·ligència artificial (IA) ha pres molta importància en els darrers anys, especialment l'aplicació ChatGPT, que va ser considerada una de les innovacions tecnològiques més impressionants del 2022. Tanmateix, l'aplicació té un punt feble: la base de dades.

El predecessor de ChatGPT, el GPT-3, era propens a crear missatges violents, masclistes i racistes, ja que la intel·ligència artificial es va crear a partir de milions de paraules extretes d'internet.

Per evitar aquesta situació, en el nou ChatGPT era necessari crear un mecanisme de seguretat addicional impulsat per IA.

Open AI va externalitzar aquesta feina a l'empresa SAMA, amb seu a San Francisco i que donava feina a països en vies de desenvolupament com Kènia, on l'empresa va contractar treballadors perquè classifiquessin i detectessin qualsevol contingut "tòxic" que es pogués introduir com a dada al ChatGPT.

 

Salaris entre 1,32 i 2 dòlars l'hora

Els treballadors kenians de l'empresa SAMA s'han enfrontat a condicions laborals precàries, malgrat "el paper fonamental que han jugat aquests professionals en l'enriquiment de les dades de ChatGPT".

La investigació del Time destaca que els sous variaven segons els objectius que es podien assolir. Les fites anaven determinades per la quantitat de passatges de text que els treballadors podien etiquetar en un torn de nou hores: entre 70 i 250, que podien anar des de 100 fins a 1000 paraules.

Per tant, un treballador podia cobrar 1,32 dòlars per hora després d'impostos i 1,44 dòlars per hora si aconseguia superar tots els objectius marcats per l'empresa. Això són entre 1,2 i 1,3 euros l'hora.

D'altra banda, els "analistes de qualitat", que tenien la funció de comprovar el treball dels empleats, podia endur-se fins a 2 dòlars per hora si també aconseguia tots els objectius.

Malgrat que a Kènia no hi ha salari mínim, el sou dels treballadors era similar al d'una recepcionista a la capital de Kènia, uns 1,52 dòlars l'hora.

Tanmateix, com s'explica a la investigació, la quantitat de diners que s'emportaven els empleats per part de SAMA "xoca" amb la versió d'OpenAI, que assegura que els sous havien de ser de 12,50 dòlars l'hora.

 

Els treballadors quedaven traumatitzats pel que llegien

La feina que classificació i filtració de continguts negatius perquè l'ús de ChatGPT fos segur de vegades arribava al límit.

Diàriament els treballadors havien d'etiquetar descripcions textuals d'abús sexual, discurs d'odi i violència.

A la investigació se citen diversos testimonis de treballadors que van quedar traumatitzats pels textos que, en algun moment, havien de llegir en les nou hores que durava la seva jornada.

"Un dia un empleat de Sama era a la feina llegint una història explícita sobre la violació del company de Batman, Robin."

Segons quatre testimonis citats pel diari Time, els empleats tenien dret a assistir a teràpia, que en la majoria dels casos era grupal i no era gaire útil.

"Les sessions eren poc útils i estranyes, a causa de les altes exigències per ser més productius a la feina."

Per contra, un portaveu de l'empresa Sama va assegurar que la informació era "incorrecta" i que els treballadors tenien accés a les dues teràpies "en qualsevol moment".

"Els empleats tenien dret a sessions individuals i grupals, amb terapeutes de salut mental amb llicència i formació professional."

 

Un treball pilot per recopilar imatges sexuals i violentes

El febrer del 2022 les relacions entre Sana i OpenAI es van incrementar i van crear, de manera conjunta, un "treball pilot" per recopilar imatges sexuals i violentes.

Cal recordar que Open AI també és la fundadora de DALL·E 2, un sistema d'intel·ligència artificial que és capaç de transformar en imatge qualsevol idea.

El portaveu d'Open AI va assegurar que etiquetar imatges nocives era "un pas necessari" per fer més segures les seves eines d'intel·ligència artificial.

Segons la investigació, algunes imatges es van classificar com a C4 (abús sexual infantil), C3 (violació i esclavitud sexual) i V3 (mort, violència o lesions físiques greus).

Poques setmanes després, l'acord es va trencar de manera inesperada. Sana va cancel·lar tot el seu treball amb OpenAI al·legant que l'acord per recopilar imatges "no incloïa cap referència a continguts il·legals".

Els treballadors van rebre la notícia dies després, i se'ls va comunicar que "no els tornarien a exposar a continguts perillosos".

"Per a nosaltres era una manera de mantenir les nostres famílies."

Segons el diari Time, tres dotzenes de treballadors van ser recol·locats a altres llocs de feina amb un salari més baix; la resta van perdre la feina.

 

ARXIVAT A:
TecnologiaDrets laboralsIntel·ligència artificialEmpresa
Anar al contingut