LA @

ESTHER PANIAGUA,

periodista y autora especializada en tecnología

"La lista de usos y abusos de la inteligencia artificial o IA (y de otros sistemas algorítmicos más básicos) en el ámbito laboral es larga y creciente"

Cuando la IA nos controla

Aplicaciones biométricas para el registro de jornada. Dispositivos que rastrean los movimientos de los empleados. Herramientas que registran las teclas que pulsan los trabajadores o que capturan su pantalla. Webcams siempre activas para saber qué hacen quienes trabajan en remoto. Aplicaciones que asignan cada tarea y determinan en cuánto tiempo deben completarse. Algoritmos ‘inteligentes’ que penalizan a quienes se desconectan u obtienen valoraciones bajas. Programas que excluyen a mujeres y a personas mayores de procesos de selección y ofertas laborales…

La lista de usos y abusos de la inteligencia artificial o IA (y de otros sistemas algorítmicos más básicos) en el ámbito laboral es larga y creciente. Son sistemas que determinan a quién se contrata; qué, cuándo y cómo deben hacer los trabajadores, e incluso a quién se despide. Estas tecnologías no tienen intenciones, pero no están exentas de intencionalidad: incorporan la de quien las diseña, y ejecutan los comandos programados por humanos de carne y hueso. Son órdenes a menudo perversas: el resultado de una fórmula matemática de optimización diseñada para maximizar la eficiencia y las ganancias de la empresa.

El código que hace funcionar estas plataformas y aplicaciones no suele tener en cuenta el bienestar de los trabajadores. Entre estos y aquellas hay una asimetría de poder y también de información. A menudo los algoritmos trabajan como cajas negras y no se sabe exactamente cómo funcionan. Esto hace que sea muy difícil para los trabajadores impugnar decisiones o cambiar su comportamiento para poder mejorar. También invisibiliza los posibles sesgos. ¿Es permisible que una persona preparada no tenga acceso a ciertas ofertas o tareas porque la plataforma no se las visibiliza?

La gestión basada en aplicaciones amplifica la inseguridad y la inestabilidad del trabajo ya precario. El vacío de información, la falta de mecanismo de retroalimentación y el control del desempeño basado en datos son los tres elementos centrales de la ‘precariedad digital’.

Esta es una problemática generalizada, que se exacerba para los trabajadoras y trabajadores de plataformas (de reparto o de microtareas, entre otras). Se les atrae con promesas de un salario digno y condiciones laborales flexibles, pero el funcionamiento de la plataforma les incentiva a estructurar sus vidas en torno a esta, haciéndoles dependientes de ella.

En circunstancias muy similares se encuentra otra tipología de trabajo digital: la computación humana. Son labores que empiezan y terminan online y que realizan cualquier tipo de tarea que pueda ser administrada, procesada, efectuada y pagada en línea. La mayoría de ellas tiene que ver con la inteligencia artificial, ya sea para facilitar, supervisar o completar su desarrollo o para realizar tareas que esta no es capaz de hacer. Allá donde no llega la máquina, entran los humanos.

Estos trabajos -etiquetado, clasificación, identificación de discursos de odio, etc.- potencian los sistemas, sitios web y aplicaciones de IA que todos usamos y damos por sentado. Un tipo de trabajo ‘fantasma’ que hace invisible la labor de cientos de millones de personas. Y suele estar pobremente pagado: OpenAI, la empresa creadora de ChatGPT, recurrió a trabajadores en Kenia para revisar textos e imágenes que incluían escenas gráficas de violencia, sin siquiera advertirles sobre la brutalidad de algunos de dichos contenidos. Por ese trabajo, se les pagaba entre 1,46 y 3,74 dólares por hora.

Es una historia que lleva años repitiéndose. Algo muy parecido llevó a miles de trabajadores a demandar a Meta en 2018 por no protegerles de un posible trauma mental. Finalmente, la red social acordó pagarles 52 millones de dólares. En España también trabajan decenas de moderadores de Meta. En 2022, la Generalidad de Cataluña multó con más de 40.000 euros a la empresa por no detectar y prevenir adecuadamente los riesgos psicosociales en estos trabajos. Este 2024, un juzgado de Barcelona reconoció que la enfermedad mental que sufre un moderador de contenido está causada por su trabajo, abriendo la puerta a que unas 25 personas que han reclamado la baja por accidente laboral obtengan su reconocimiento y compensación.

La situación de estas personas -que realizan un trabajo agotador a cambio de un salario mínimo- evidencia unas condiciones precarias en el trabajo digital, que contrastan con elevados sueldos entre altos ejecutivos tecnológicos.

Pero oigan, no todo iba a ser malo… Lo digital también trae la promesa de eliminar tareas repetitivas para que el personal se centre en labores de valor añadido, y ciertas herramientas en ciertos casos de uso pueden ayudar a los trabajadores menos cualificados. Por ejemplo, en los call centers, donde el uso de herramientas de IA puede hacer su trabajo hasta un 14% más productivo, según un estudio de la Universidad de Stanford.

Y lo malo se puede corregir. España fue pionera en actuar, impulsando en 2021 la llamada ‘ley de riders’. Esta no solo afecta a los repartidores de plataformas (que pasan a ser asalariados). También establece la obligación corporativa de informar a los comités de empresa sobre los parámetros en los que se basan los algoritmos y sistemas de IA que pueden afectar a los trabajadores -de cualquier tipo de empresa- y a las condiciones de trabajo. Siguiendo esta estela, el Consejo y el Parlamento Europeo han acordado este 2024 la puesta en marcha de una nueva directiva relativa al trabajo en plataformas digitales con medidas similares.

Estas normas están lejos de aportar una solución integral al complejo puzle de problemáticas y retos del uso de algoritmos en el ámbito del trabajo. Otras leyes como el Reglamento de IA de la UE también contribuirán a ello. Más allá, es imperativo apelar a una ética organizacional robusta y a que eso que tanto gusta decir de “poner al trabajador en el centro” se cumpla de verdad.