La tecnología ya domina varios aspectos de la vida. Por eso era de esperar que los sistemas de inteligencia artificial acabasen llegando a los centros de trabajo, algo que se ha puesto de relieve con las controvertidas prácticas de gigantes como Amazon y sus conductores, obligados a orinar en botellas para ser lo más eficientes posible a ojos de una máquina, o los riders de plataformas como Glovo o Deliveroo.


Por qué se deben regular los algoritmos en el trabajo


España ya ha introducido uno de los primeros mecanismos legales del mundo para hacer frente a un trabajo controlado por algoritmos sin control. En la ley de riders que se aprobó este mes se incluye un apartado que obliga a las empresas a informar de los parámetros en los que se basen estas fórmulas a los representantes de los trabajadores (a los sindicatos).


"Leo muchas declaraciones de empresarios diciendo que esto es una intromisión en su capacidad de competir y en su secreto empresarial", lamenta José Varela, responsable de Digitalización de UGT. "No queremos acceder a los algoritmos que les sirvan para mantener determinadas estrategias empresariales ni que les digan con qué clientes tienen que tratar", avisa.


"Solo queremos conocer el funcionamiento de los algoritmos que tienen una relación unívoca con el mundo del trabajo. Si una persona trabaja en un aserradero y las herramientas que utiliza tienen que pasar por una verificación de seguridad, ¿por qué no tienen que pasar por lo mismo sus hermanas informáticas o virtuales?", explica.


Varela explica que lo que las centrales plantearon al Gobierno, "y creo que con acierto", es que si se usa una herramienta, hay que controlar "y verificar" que esa herramienta "funciona correctamente". "No puede haber una apariencia de verificación. No podemos permitir que unos ordenadores tomen decisiones y un humano haga seguidismo de lo que diga la máquina. Hay que verificarla y comprobarla".


Ese "seguidismo" es un problema que también ha analizado Gemma Galdon, experta en ética algorítmica y fundadora y directora de Eticas Consulting. En recientes entrevistas con Business Insider España, Galdon detallaba cómo en una entidad bancaria, por ejemplo, se encontró con profesionales que asumían (sin cuestionárselo) el resultado de un algoritmo que determinaba si un cliente podía optar o no a un préstamo hipotecario.


El esperado reglamento europeo de IA


En España y en Europa, los sindicatos lideran el debate. La UGT ha publicado varios análisis para posicionarse frente a "la indiscriminada y masiva puesta en marcha de algoritmos en las relaciones laborales", ya que considera que "las decisiones algorítmicas no pueden dejarse al albur de las empresas".


"Los peligros que entrañan estas tecnologías están más que comprobados, por lo que se requiere un nuevo marco legislativo que regule su puesta en marcha y ejecución, designando responsabilidades y obligaciones", destaca la central en un informe titulado Las decisiones algorítmicas en las relaciones laborales.


Es un tema "al que hay que prestarle atención", continúa José Varela, responsable de Digitalización de la UGT, en declaraciones a Business Insider España, porque "la aplicación de la IA en el mundo del trabajo está siendo ofrecida por consultoras y antes o después llegará a nuestra realidad laboral". "Es la moda ahora mismo en los departamentos de Recursos Humanos de todo el país".


En España ya hay ley de riders y Europa espera regular antes de que termine el año una nueva norma que determine la relación que ata a repartidores de estas plataformas. De forma paralela, puede abrir la puerta a regular los algoritmos en centros de trabajo, como detallarán ahora portavoces de UNI Europa, una confederación de sindicatos.


Pero al mismo tiempo, la Comisión Europea trabaja en su propuesta de Reglamento para regular la inteligencia artificial. Una iniciativa a la que desde la UGT se da la bienvenida. En palabras de José Varela, "parece que va por el buen camino". "Por primera vez, y a petición de UGT, se cataloga cualquier tipo de aplicación de algoritmos en centros de trabajo de grave riesgo. Eso significa que el empresario tendrá que saber que juega un riesgo máximo al poder tomar decisiones injustas".


Se trata de aplicar "un principio de precaución". Efectivamente, la propuesta para regular la IA en Europa contempla varios escenarios de menor a mayor riesgo que puedan ocasionar los algoritmos. Gemma Galdon e Idoia Salazar, presidenta de OdiseIA, destacaban algunos puntos de esta propuesta en Business Insider España.


En palabras de Galdon, "excluye la ausencia de riesgo, por lo que entiende que siempre hay riesgo e impone mecanismos de transparencia y auditabilidad" a estos aslgoritmos.


Otro estudio elaborado por la UGT con respecto a esta propuesta de regulación de la IA en la Unión Europea destacaba que la norma asignaba a la IA laboral un "alto riesgo preventivo". "El empleador deberá asumir que la implantación de este tipo de soluciones implicará un "riesgo de impacto adverso en los derechos fundamentales (…) con respecto a su gravedad y probabilidad de ocurrencia", creando "un impacto adverso en la seguridad de las personas o sus derechos fundamentales".


"La gestión algorítmica debe tener siempre un propósito definido, unos objetivos claros y un provecho tangible, ya sea organizacional o productivo. De no demostrarse a priori tal efecto beneficioso, no se puede poner en funcionamiento una IA laboral que, sin duda, atentará contra los derechos de las personas trabajadoras", concluía la central.


"En definitiva: la futura Ley de Inteligencia Laboral envía un mensaje de máximo respeto y protección a los derechos fundamentales de las personas trabajadores; por encima de cualquier posible "beneficio productivo". Y la UGT lo hará respetar, en todas y cada una de las empresas y en todos y cada uno de los centros de trabajo de nuestro país".




La Comisión Europea inició en febrero el periodo de consultas para elaborar su propia normativa sobre el empleo en plataformas digitales con la que establecerá un marco común para esta actividad, incluyendo "la gestión algorítmica". Esa ley europea, según aseguró la presidenta de la CE, Ursula von der Leyen, en las Orientaciones Políticas que presentó al indicio de su mandato, cuenta con el compromiso de las autoridades comunitarias de mejorar las condiciones laborales de los trabajadores de plataformas. "La transformación digital provoca cambios súbitos que impactan en nuestros mercados laborales", señalaba la líder europea.


La Confederación Europea de Sindicatos (CES) respondió al periodo de consultas reclamando a la Comisión que actúe. "Recientes casos judiciales y decisiones administrativas han demostrado que las plataformas siguen infringiendo las leyes sobre los derechos de los trabajadores y reconocen una y otra vez la errónea clasificación de trabajadores como falsos autónomos mientras la plataforma ejerce de empleadora con la ayuda de sus herramientas de gestión algorítmica", señala su misiva a Bruselas.


Además, la CES criticaba que era "imposible" responder a los desafíos que planteaba la CE en sus consultas sin partir de la base de que las plataformas que tienen el control y la propiedad de los algoritmos que se utilizan para controlar cómo realizan su trabajo los repartidores son, en realidad, quienes emplean a los riders, por lo que reclama reconocer a las plataformas como empresas para reclamar que cumplan con sus obligaciones con sus trabajadores.



La Confederación Europea de Sindicatos denunciaba en marzo que, desde el inicio de la pandemia, ha aumentado drásticamente el uso de herramientas de vigilancia para controlar a los empleados que teletrabajan, por lo que priorizaba alinear el desarrollo tecnológico con los derechos fundamentales de los trabajadores, poniendo como ejemplo la herramienta de inteligencia artificial usada por Amazon en sus procesos de contratación que fue desmantelada al descubrirse que discriminaba a las candidatas.


Más allá de los sindicatos, el think tank alemán A Path for Europe apuntaba al riesgo que implican los algoritmos en materia laboral en un estudio publicado en noviembre, en el que aseguraba que la manera en la que estas herramientas extraen conclusiones discriminatorias no suele ser evidente. "Dado que es más probable que una mujer trabaje menos horas o se coja una baja de maternidad, el algoritmo puede concluir que ser hombre te hace más propenso a ser ascendido", afirma.


En el informe el profesor universitario y experto en Ética de la Sociedad Digital Philipp Hacker ha definido 2 motivos por los que los algoritmos pueden asumir este tipo de prejuicios, destacando por una parte al sesgo en los datos dado que esta información parte de una discriminación histórica y por otra a categorías como las horas trabajadas o el código postal, que no están sometidas a la misma protección que el género o etnia, pero pueden revelarlo de igual forma.


Conflictos en Francia, Portugal, Alemania y Países Bajos


A pesar de que esta última legislación europea no estará lista hasta finales de año y de que el resto de los socios europeos no cuentan con legislación que regule los algoritmos que repercutan en las condiciones laborales, su uso sí ha generado conflictos en varios países de la UE, como es el caso de la multinacional francesa de atención al cliente Teleperformance, en la aerolínea portuguesa TAP o la compañía de VTC Ola en Países Bajos.


Desde UNI Europa destacan que los sindicatos galos han criticado la analítica de voz utilizada por Teleperformance. "El software CallMiner que emplea mide las emociones del cliente y el trabajador y, desde su puesta en marcha, los empleados en Francia aseguran que están recibiendo entrenamiento sobre emociones", señalan, afirmando que no existe transparencia sobre el funcionamiento de este software y sus posibles riesgos.


Mientras, en Portugal, el Sindicato do Pessoal de Voo da Aviação Civil, que representa a trabajadores del sector aéreo luso, ha denunciado que TAP utiliza un algoritmo para definir cuáles de las ausencias de sus empleados están o no justificadas, lo que ha provocado el despido de un trabajador que estuvo de baja tras la muerte de su hermano y su hijo en la oleada de incendios que asoló el centro del país en 2017, según TSF Rádio Notícias.


También en Núremberg iniciaron unos registros en las oficinas de la cadena de retail H&M por haber violado las normas de protección de datos alemanas: la compañía creó un "detallado sistema de registro de información de los empleados". A raíz de conversaciones informales, la compañía contaba con información de sus trabajadores, desde temas familiares a creencias religiosas. De esa manera pretendían evaluar el rendimiento de los profesionales, según el Frankfurter Allgemeine Zeitung.


En cuanto a Ola, un tribunal de Amsterdam dictó en marzo una sentencia que obliga a la operadora de VTC a dar a sus trabajadores acceso a sus algoritmos, después de que se demostrase que la compañía utilizaba el sistema automatizado de su aplicación para reducir las ganancias de varios conductores, mientras que, en otra pieza separada, obligó a Uber a dar acceso a sus algoritmos a 2 de sus trabajadores en Reino Unido y Portugal tras bloquear sus cuentas sin motivo, según Financial Times.


Actualidad Laboral / Con información de Business Insider