«La inteligencia artificial no debe dejar atrás a los colectivos vulnerables»

e. v. pita VIGO / LA VOZ

VIGO

M.MORALEJO

La profesora de Derecho del Trabajo de la UVigo Rosa Rodríguez Martín-Retortillo cree que la digitalización puede transformar el empleo en el rural vacío pero alerta de que no hay que bajar la guardia porque la IA puede aumentar la precarización

01 jul 2023 . Actualizado a las 23:49 h.

Destrucción de empleos por la robotización, sesgos y algoritmos opacos que discriminan en las entrevistas de trabajo o la brecha digital de los discapacitados. El impacto negativo en el empleo es estudiado por la profesora de Derecho del Trabajo y la Seguridad Social de la Universidad de Vigo, Rosa Rodríguez Martín-Retortillo (A Coruña, 1985). La docente y su colega de lo mercantil Pablo Fernández Carballo-Calero organizan el congreso internacional El impacto de la Inteligencia Artificial en el Derecho del Trabajo y de la Propiedad Intelectual e Industrial, que se celebrará los días 6 y 7 en Vigo. Acaba de publicar un artículo en la revista jurídica Trabajo y Derecho sobre el deber de transparencia y los límites de la inteligencia artificial en las relaciones laborales.

—¿En qué aspectos de la inteligencia artificial y el empleo trabajan ahora en su departamento?

—En el área de Derecho del Trabajo tenemos un proyecto de investigación, junto con el de Mercantil, financiado con ayudas del Programa de Consolidación y Estructuración de Unidades de Investigación Competitivas, de la Xunta, en el que analizamos el impacto negativo de la digitalización en las relaciones de trabajo y con especial atención a las diferencias y desigualdades sociales generadas por la brecha digital.

—¿Cómo afectan los algoritmos al trabajo?

—Pese a su aparente objetividad, los algoritmos pueden contener sesgos que es necesario erradicar. De ahí la importancia de la transparencia en las relaciones laborales. Otro aspecto a tener cuenta es la brecha digital, principalmente en relación con colectivos vulnerables.

—¿Qué tipos de brechas digitales?

—Por ejemplo, en el acceso al empleo. Los colectivos vulnerables pueden verse más perjudicados, como son las personas en riesgo de exclusión social, con bajos recursos o con discapacidad. Pienso en el acceso a las herramientas digitales o su manejo, o en los procesos de selección basados en el reclutamiento digital. Por ejemplo, por carecer de conexión a internet o que esta sea más lenta, por el tiempo de respuesta que se puede exigir en procesos selectivos digitales.

—¿Hay edadismo?

—Los trabajadores maduros que no tengan competencias digitales pueden sufrir más las dificultades derivadas de esta transformación tecnológica. Sería bueno invertir en formación en estas materias para no dejar a nadie atrás.

—¿Y brecha de género?

—Tampoco habría que olvidar la brecha de género digital, referida a la desigualdad  entre mujeres y hombres en el acceso o en el uso de las tecnologías. Según el Informe sobre Brecha Digital de Género 2023 del Observatorio Nacional de Tecnología y Sociedad (ONTSI), solo el 19,4% de los especialistas en tecnologías digitales son mujeres.

—¿Hay algoritmos ilegales?

—El Tribunal del distrito de La Haya declaró la ilegalidad del algoritmo Systeem Risico Indicatie (SyRI) creado para evaluar el riesgo de fraude de los ciudadanos a la Seguridad Social o a Hacienda. Se articulaban una serie de parámetros que eran analizados y relacionados entre sí. Resultó que los colectivos sobre los que más se proyectaba esa posibilidad de fraude eran los que se localizaban en zonas geográficas concretas, más humildes, lo que sin duda los estigmatizaba y en los que se daba una especial vulnerabilidad social. La sentencia entendió que el fin era legítimo (la lucha contra el fraude), pero no guardaba equilibrio debido a cómo se había diseñado. Faltaba la mínima transparencia exigible.

—¿Qué solución ve?

—Debe promoverse una inteligencia a artificial transparente, sin sesgos y que permita contribuir a un sistema de relaciones laborales más eficiente, a la par que respetuoso con los derechos de las personas trabajadoras. Erradicar los sesgos en las fases de desarrollo y revisar y controlar los ya existentes.

M.MORALEJO

«Con la IA no se debe bajar la guardia, se corre el riesgo de más precarización»

 Martín-Retortillo cita una sentencia de Bolonia del 2020 que declaró «discriminatorio» al algoritmo Frank por clasificar a los riders. «Gracias a estos hitos, se ha avanzado, pero la clave está en el deber de transparencia», dice. «Ante los desafíos que plantea la IA no se debe bajar la guardia, pues se corre el riesgo de que aparezcan nuevos espacios de precarización», advierte.

—¿La ley está avanzando?

— En nuestro país ha habido un avance significativo tras una sentencia del Tribunal Supremo del 2020 de gran calado sobre los riders. Luego, se introdujo en el Estatuto de los Trabajadores el deber de la empresa de informar sobre los parámetros, reglas e instrucciones en los que se basan los algoritmos o la IA (condiciones de trabajo, acceso y mantenimiento del empleo, elaboración de perfiles). Una directiva de la UE del 2019 obliga a introducir en el Estatuto un artículo bis sobre la obligación de la empresa de dar información adicional si se usan sistemas automatizados de toma de decisiones.

—¿Cómo ve la robotización?

—Según el INE, en Galicia, de las empresas con más de 10 empleados, quienes más utilizan robots son industria y construcción.

—¿Qué puestos peligran?

—Las tareas más monótonas, susceptibles de ser asumidas por el big data. Yo hablaría de transformación del empleo. El robot puede complementar la actividad de las personas, al ocuparse de las tareas más repetitivas, mientras el factor humano se centraría en aspectos más técnicos, creativos o de supervisión. Las zonas rurales con riesgo de despoblación podrían beneficiarse si usasen competencias digitales para transformarse. Se debe invertir en formación en el empleo verde, para favorecer una transición justa.

 —La falta de regulación de la IA ¿de qué modo afectará a los trabajadores?

—Ante los desafíos que plantea la inteligencia artificial no se debe bajar la guardia, pues se corre el riesgo de que aparezcan nuevos espacios de precarización. En los últimos tiempos se han sucedido una serie iniciativas, tanto de hard law como de soft law (guías, estrategias, leyes con impacto en la materia, o una propuesta de Directiva de Responsabilidad por Inteligencia Artificial, de 28 de octubre de 2022), que tratan de abordar esta materia con garantías y buscan afrontar los riesgos derivados del uso de la inteligencia artificial. 

 —¿Qué destacaría de la legislación europea?

—Destacaría la Directiva (UE) 2019/1152 del Parlamento Europeo y del Consejo, de 20 de junio de 2019, relativa a unas condiciones laborales transparentes y previsibles, que supone un refuerzo en esta materia, e implicará, de acuerdo con el Anteproyecto de ley para su transposición a nuestro ordenamiento, la introducción de un nuevo artículo 8 bis en el Estatuto de los Trabajadores, en relación con la obligación de la empresa de entregar información adicional en los supuestos de utilización de sistemas automatizados de toma de decisiones.

 —¿Y en el ordenamiento español?

—Además del Estatuto de los Trabajadores, otras normas están incorporando expresamente la referencia a los algoritmos, teniendo en cuenta el posible impacto que puede tener en la igualdad y no discriminación. Un ejemplo es la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación, que haced mención expresa a la Inteligencia Artificial y destaca que los algoritmos que se empleen para la toma de decisiones se deben utilizar de forma transparente, considerando los posibles sesgos. Todo ello, por medio de evaluaciones e inspirándose en actuaciones éticas y responsables con los derechos fundamentales. Por tanto, ha habido avances.

 —¿Qué hacer con los sesgos de los algoritmos?

—Los posibles sesgos que puedan contener los algoritmos se deben erradicar en todas las fases de desarrollo del algoritmo. Los mecanismos de control deben exigirse, en primer lugar, cuando aquel se encuentre en una fase previa a su implementación, con el fin de determinar que las variables y parámetros con los que opera son adecuados. En segundo lugar, también respecto de los algoritmos ya existentes, pues ese control también debe ser predicable en la trazabilidad del algoritmo, con el fin de revisarlo y evitar efectos indeseados.

— En el congreso internacional de Vigo de julio abordarán la IA y su incidencia en la calificación del contrato como autónomo o subordinado ¿Se refiere a los "riders"? ¿Cree que el panorama puede empeorar?

—En nuestro país ha habido un avance significativo en este sentido. El 25 de septiembre de 2020 el Tribunal Supremo dictó una sentencia de gran calado, que se pronunció sobre la naturaleza del vínculo de los repartidores de una conocida plataforma. La Sentencia entendió que estos eran falsos autónomos, y puso de manifiesto que la empresa realizaba una labor de coordinación, organización o control de la prestación, y aunque lo hiciera mediante la gestión algorítmica o una aplicación informática, ello no desvirtuaba la naturaleza laboral del vínculo, pues se daban las notas de la relación laboral. Poco después, en 2021 se modificó el Estatuto de los Trabajadores al introducir una nueva letra “d” al art. 64.4, sobre el deber de la empresa de informar sobre los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que tengan incidencia en las condiciones de trabajo, como antes se mencionó. Gracias a estos hitos, se ha avanzado, pero la clave, una vez más, está en el deber de transparencia.

— Usted dice que en el 2021 se introdujo en el Estatuto de los Trabajadores el deber de la empresa de informar sobre los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones. 

— Esta idea es fundamental. Por su parte, el deber de información es necesario también desde el prisma de las políticas de responsabilidad social corporativa de las empresas (RSC), en sus diferentes dimensiones. En cuanto al carácter discriminatorio del algoritmo y la conflictividad que puede generar, hay ejemplos aportados por la jurisprudencia de países de nuestro entorno. Destaca Italia, con la Sentencia del Tribunale Ordinario di Bologna de 31 de diciembre de 2020. El algoritmo «Frank» que utilizaba una conocida plataforma de reparto para clasificar a los riders, fue considerado por el Tribunal como un “algoritmo discriminatorio”.