Tecnología

La inteligencia artificial generativa y su coste invisible se paga con mano de obra precaria | TECNOLOGÍA – El boletin Peruano

para que el inteligencia artificial Al realizar generativamente un informe de autopsia, los trabajadores precarios deben clasificar e identificar miles de imágenes de delitos. Desde Kenia hasta Colombia, los registradores de datos son cada vez más numerosos y luchan por mejorar sus condiciones laborales.

MIRAR: “Antes se recomendaba estudiar inglés y computación si querías tener un trabajo, ahora sostengo que tendrás que estudiar robótica para seguir siendo relevante”

«Hay que pasar el día mirando los cadáveres» y «haciendo zoom sobre las heridas» para recortarlas y ayudar a la IA a identificar estas imágenes, «sin ningún tipo de apoyo psicológico», explica a la AFP Ephantus Kanyugi.

Boletín Media

Este keniano de 30 años clasifica y etiqueta imágenes para entrenar algoritmos desde 2018. También es vicepresidente de la Data Labelers Association, con sede en Nairobi y que cuenta con unos 800 miembros.

En octubre, la organización publicará un código de conducta para las plataformas de anotación de datos con el fin de mejorar las condiciones de los trabajadores, en ausencia de una legislación que regule esta actividad en Kenia.

Somos como fantasmas, la gente no sabe que existimos, que somos nosotros los que ayudamos con el avance tecnológico.”, lamenta Oskarina Fuentes desde el otro lado del planeta.

Este venezolano de 35 años, radicado en la ciudad colombiana de Medellín, trabaja para cinco plataformas de anotación de datos. Cobra entre 5 y 25 centavos por trabajo.

Gracias a este trabajo, a menudo invisible, los coches autónomos reconocen a peatones o árboles, robots conversacionales como ChatGPT se expresan con naturalidad o sistemas de moderación filtran contenidos violentos o pornográficos.

Y es un mercado en auge: en 2024 representó 3,77 mil millones de dólares, que deberían crecer hasta 17,1 mil millones en 2030, según la firma Grand View Research.

“Esclavitud moderna”

La IA necesitará verificación humana “mientras siga dependiendo del aprendizaje automático”dice el sociólogo Antonio Casilli, autor de un libro de investigación sobre el “trabajo con clics”.

Se necesitan personas tanto en la fase inicial para preparar los datos que alimentan los modelos, como en la fase final para evaluar la relevancia de las respuestas.

Los gigantes tecnológicos subcontratan este trabajo a innumerables empresas.

Una de las más importantes es la American Scale AI, en la que Meta invirtió recientemente más de 14 mil millones de dólares. Entre sus clientes se incluyen OpenAI, Microsoft y el Departamento de Defensa de EE. UU.

Los anotadores de datos suelen tener entre 18 y 30 años y reciben una remuneración muy baja, a pesar de tener un alto nivel educativo.dice Casilli, profesor del Instituto Politécnico de París.

Provienen en su mayoría de países con pocos recursos, aunque esta actividad también se está desarrollando en Estados Unidos y Europa, con salarios más altos.

A medida que ascienden de rango, los modelos detrás de ChatGPT de OpenAI o Claude de Anthropic deben especializarse en temas complejos, como matemáticas, química o lenguajes poco comunes.

El sitio web Outlier, filial de Scale AI, ofrece múltiples ofertas de trabajo para expertos en biología, idioma malayo o programación en español, con salarios de entre 30 y 50 dólares la hora.

En Kenia, sin embargo, Remotasks, otra filial de Scale AI, paga a sus anotadores de datos alrededor de 0,01 dólares por una tarea que puede llevar varias horassegún Ephantus Kanyugi.

Es “esclavitud moderna”, dice.

“La gente desarrolla problemas de visión, problemas de espalda, ansiedad y depresión porque trabajan 20 horas al día o seis días a la semana, por un salario miserable, y puede que ni siquiera les paguen”, advierte.

“¿Cómo suicidarse?”

Scale AI es objeto de varias quejas en los Estados Unidos. Los empleados la acusan de realizar trabajo no remunerado, declarándolos autónomos y exponiéndolos a contenidos traumáticos sin suficientes medidas de prevención.según documentos legales consultados por la AFP.

Los demandantes afirman, por ejemplo, que han tenido que abordar con inteligencia artificial preguntas como “¿cómo suicidarse?”, “¿cómo envenenar a alguien?” o «¿cómo matar a alguien?»

La compañía se ha negado a comentar sobre las demandas en curso, pero reconoce que algunos proyectos destinados a crear modelos seguros de IA pueden incluir contenido confidencial.

Scale AI garantiza que siempre notifica a los trabajadores con antelación y que pueden interrumpir una tarea en cualquier momento. También menciona programas y recursos dedicados a la salud mental y una línea directa anónima.

Según la empresa, ofrece una escala salarial transparente, con tarifas iguales o superiores al salario mínimo vigente en los lugares donde opera.

Estos trabajadores de IA pueden quedarse sin trabajo o sin sueldo de la noche a la mañana.

Oskarina Fuentes acusa a una de las plataformas que la utilizó de no pagarle unos $900, o tres meses de trabajo, luego de una actualización de su sistema de pagos.

“Perdí mi tiempo, mi esfuerzo, mi sueño”, afirma.

No puede decir cuál era su empresa porque firmó un acuerdo de confidencialidad. una práctica frecuente en esta industria que condena al silencio a la mayoría de los trabajadores del clic.

En Kenia, la Data Labelers Association se plantea llevar a Remotasks a los tribunales, tras las acusaciones de varios trabajadores de que en marzo de 2024 cortó el acceso a su plataforma sin pagarles el dinero que les debía.

La empresa matriz Scale AI admite una reducción de su actividad en Kenia y afirma haber cerrado las cuentas de los anotadores por violar sus normas internas. Pero asegura que las actividades realizadas fueron remuneradas.

Microsoft y Meta se negaron a responder a las preguntas de la AFP sobre sus relaciones con Scale AI. El Pentágono no respondió.

En el caso de Anthropic, colabora con SurgeAI, una empresa emergente de anotación de datos también demandada en Estados Unidos.

El gigante de la IA dice que exige a sus subcontratistas que sigan reglas relativas al bienestar de los trabajadores a cargo de contenidos sensibles y que establezcan una tarifa igual o superior a 16 dólares por hora.

OpenAI asegura tener regulaciones estrictas para sus colaboradores en materia de seguridad laboral, remuneración equitativa, no discriminación y respeto a los derechos de los empleados. Si no se respeta este código, el creador de ChatGPT lo considera un incumplimiento de contrato y toma las medidas adecuadas, afirma.

“Salarios justos”

Sin embargo, los trabajadores que hacen clic, que en su mayoría trabajan por cuenta propia o tienen contratos a corto plazo, a menudo carecen de protección social, recuerda el sociólogo Antonio Casilli, quien los describe como un “subproletariado digital”.

En Kenia, el futuro código de conducta de la Data Labelers Association, al que tuvo acceso la AFP, pretende establecer un contrato de trabajo con una “remuneración justa”, garantizar la libertad de asociación, el derecho a pausas y apoyo psicológico en caso de exposición a contenidos nocivos.

Pero estas demandas pueden convertirse en un tira y afloja con las empresas.

En Estados Unidos, unas 250 personas que trabajaban para GlobalLogic, un subcontratista que entrena la IA Gemini de Google, fueron despedidas en septiembre después de que varios empleados informaron diferencias salariales e intentaron obtener mejores condiciones.

“Quieren anotadores de datos sumisos”, denuncia Andrew Lauzon, de 31 años, que trabajaba para GlobalLogic desde marzo de 2024 y fue despedido el 12 de septiembre.

Miembro del Sindicato de Trabajadores de Alphabet, este nativo de Boston exigió, junto a otros compañeros, “salarios justos”, “días libres” y “cobertura médica asequible”.

Contactado por la AFP, GlobalLogic no quiso hacer comentarios.

Un portavoz de Google señaló que «como empresa, GlobalLogic es responsable de las condiciones laborales de sus empleados».

El grupo afirma que exige a sus subcontratistas el cumplimiento de la normativa y un trato justo y equitativo para sus trabajadores. Y asegura que realiza auditorías periódicas para comprobarlo.

Los gigantes tecnológicos no pueden construir el futuro con una fuerza laboral desechable”, insiste Christy Hoffman, secretaria general de la federación sindical internacional UNI Global Union, que publicó a principios de octubre un estudio sobre los trabajadores bajo la sombra de la IA.

“Es hora de que los titanes de Silicon Valley se hagan responsables de las condiciones laborales en su cadena de subcontratación”, añade.

El trabajo con clics adolece sobre todo de una falta de marco legal.

En Europa, a pesar de la aprobación de amplias regulaciones sobre inteligencia artificial, todavía existen “lagunas”, dice la eurodiputada francesa de izquierda radical Leïla Chaibi.

“En la regulación de la IA no se menciona a los trabajadores que hacen clic”, señala.

Y todo ello teniendo en cuenta que millones de personas realizan esta labor, fundamental para el desarrollo de esta nueva tecnología.

“Si eres carpintero o fontanero, hay sindicatos y un salario mínimo”, recuerda Nacho Barros, de 54 años, que vive cerca de Valencia, España, y que empezó a registrar datos durante la pandemia.

«Este trabajo también debería ser reconocido por todos los países como un trabajo de pleno derecho».