
Publicado: 18 de Enero de 2022
" Una investigación de Adrián Todolí, profesor de Derecho del Trabajo de la Universitat de València (UV), analiza los peligros específicos para la salud de las trabajadoras y los trabajadores causados por los algoritmos en el ámbito laboral. Entre ellos, la monitorización y sentirse observado, la intensificación del trabajo causada por las decisiones tomadas por software, la discriminación a pesar de la aparente neutralidad algorítmica o posibles errores de funcionamiento. Todolí propone una normativa específica europea en protección de estos riesgos laborales, en un sistema cada vez más impregnado por la inteligencia artificial (IA).
El estudio, publicado en la revista internacional de Economía y Derecho Transfer, señala los riesgos específicos para la salud de las plantillas ya que, como especifica el docente, los nuevos métodos de IA carecen de “empatía ni conocimiento de los límites del ser humano”. Tal y como señala su autor, esta es una de las principales carencias de la propuesta de Reglamento por la Comisión Europea sobre IA, que salió a la luz en abril del año pasado y que ahora se está negociando con el resto de autoridades europeas para su aprobación definitiva.
En esta línea, en la investigación se enumeran hasta seis grupos de riesgos con sus posibles consecuencias. Un ejemplo es la constante monitorización, lo que puede causar efectos negativos psicológicamente como sentirse siempre observado o invadido por la tecnología. Pero también resalta que los posibles errores de funcionamiento de los algoritmos son uno de los factores que provocan problemas en cuanto a estrés y ansiedad.
Es por ello que el profesor de la UV defiende la necesidad de una regulación específica a nivel europeo para proteger la salud del personal gestionado por IA, ya que “muchos pueden reducirse o evitarse si se tienen en cuenta a la hora de programar un algoritmo”. “Una nueva normativa de este tipo debe estipular que dicha programación tenga en cuenta estos riesgos laborales y de salud, entre ellos el derecho a la intimidad. De la misma manera que los supervisores tienen que recibir formación en materia de prevención de riesgos para poder realizar su trabajo, el algoritmo también debe estar programado para sopesarlos”, concreta Todolí."