Es noticia
¿Cómo adecuar las relaciones laborales al Reglamento europeo de Inteligencia Artificial?
  1. España
  2. Blog FIDE
Fide

Blog FIDE

Por

¿Cómo adecuar las relaciones laborales al Reglamento europeo de Inteligencia Artificial?

Los sistemas de IA vinculados con las relaciones laborales son de alto riesgo y el reglamento europeo despliega un amplio elenco de garantías para los trabajadores

Foto: Foto: Pixabay/Gerd Altmann.
Foto: Pixabay/Gerd Altmann.

El Reglamento europeo de Inteligencia Artificial (en adelante IA) es una ley histórica que incluye garantías, prohibiciones y limitaciones de uso general de los algoritmos y crea una arquitectura legal en la Unión Europea, pero que se va a extender a operadores no comunitarios que actúen en Europa. Tiene como objetivo proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad y promover, por tanto, una IA centrada en el ser humano. Ser fiable y libre de los efectos perjudiciales y discriminaciones con el objetivo último de aumentar el bienestar humano. Los sistemas de IA precisan de datos, algoritmos y capacidad de computación y por ello el nuevo Reglamento europeo de IA tiene una vinculación directa con el Reglamento europeo de Protección de Datos Personales (RGPD).

Las nuevas normas europeas prohíben sistemas de inteligencia artificial (riesgos inaceptables) que atenten contra los derechos de la ciudadanía como los sistemas biométricos basados en características sensibles o la captura o grabación de imágenes faciales para crear bases de datos de reconocimiento facial. Se prohíben también el reconocimiento de emociones en el lugar de trabajo, la actuación policial predictiva (basada en el perfil de una persona) aunque nada se dice de las actuaciones de las inspecciones laborales predictivas a las empresas y no será posible el uso de la IA para manipular el comportamiento humano o explotar las vulnerabilidades de las personas.

Y la inteligencia artificial también tendrá un gran impacto en las relaciones laborales y la gestión de los procesos de recursos humanos en todo el ciclo vital del empleado (selección; contratación; desempeño; retribución; formación; o desvinculación). Se consideran sistemas de IA de alto riesgo (según art. 6.2 y Anexo III del Reglamento) los sistemas de IA que se utilicen en los ámbitos del empleo; la gestión de trabajadores; y el acceso al autoempleo, en particular para la contratación y la selección de personas físicas especialmente para publicar anuncios de empleo específicos; clasificar y filtrar solicitudes o evaluar candidatos en el transcurso de entrevistas o pruebas; para la toma de decisiones que afecten a las condiciones laborales; la promoción y la rescisión; la asignación de tareas a partir de comportamientos individuales o rasgos o características personales y para la supervisión o evaluación de personas trabajadores.

Y por supuesto, se deberán excluir en los sistemas de IA patrones históricos de discriminación, por ejemplo, contra las mujeres; ciertos grupos de edad; las personas con discapacidad; o las personas con orígenes raciales o étnicos concretos o con una orientación sexual determinada. Además, el reglamento europeo advierte que los sistemas de IA empleados para controlar el rendimiento y el comportamiento podrían socavar sus derechos fundamentales a la protección de datos personales y a la intimidad. Y en esta dirección, los sistemas de IA deberán garantizar no solo que no haya discriminaciones, sino que se reduzcan los sesgos que determinan que los candidatos o los trabajadores sean tratados de manera injusta.

Foto: Imágenes de "soldados alemanes" generadas por la inteligencia artificial de Google, Gemini. (Google)

Los sistemas de IA vinculados con las relaciones laborales son, por tanto, de alto riesgo y el reglamento europeo despliega un amplio elenco de garantías para los trabajadores, entre otros: el sistema de gestión del riesgo (art. 9); las prácticas de gobernanza y gestión de datos adecuadas a la finalidad perseguida (art. 10); la documentación técnica previa y actualizada del sistema de alto riesgo según los elementos del anexo IV (art. 11); la conservación de registros para garantizar la trazabilidad (art. 12); la transparencia del sistema de IA que incluirá los datos del proveedor, la finalidad prevista y las capacidades y características técnicas (art. 13); la supervisión humana del sistema de IA (art. 14); el nivel de precisión, solidez y ciberseguridad (art. 15); la evaluación de impacto (art. 27); y la información a los representantes y a los trabajadores (arts. 13 y 26.7 y art. 64.4.d) del Estatuto de los Trabajadores).

Y todo este sistema de garantías se cierra con una regulación exhaustiva y contundente de responsabilidades y sanciones que pueden alcanzar hasta 35 millones de euros o hasta un 7% del volumen mundial facturación anual y con una entrada en vigor diferida, ya que los capítulos relativos a los sistemas de IA prohibidos entraran en vigor a los seis meses de la publicación y para los sistemas de IA de alto riesgo (esto es los que afecten a las relaciones laborales) el plazo se amplía a dos años después de su publicación.

Foto: Los asistentes de voz necesitan que alguien corrija la transcripción que capturan para entrenarse. (Unsplash/Andres Urena)

¿Qué pueden hacer las empresas que deseen desarrollar internamente o adquirir a proveedores de sistemas de IA aplicados a los procesos de recursos humanos y relaciones laborales?

Pues, básicamente, organizarse y dar los primeros pasos para cumplir el reglamento europeo, entre otros: (i) Realizar un inventario de procesos de RRHH o decisiones laborales que se desea ejecutar con sistemas de IA; (ii) Identificar un mapa de riesgos de incumplimientos del reglamento europeo (y del reglamento europeo de Protección de Datos) y planificar acciones de control; (iii) Crear un modelo de gobierno y 'compliance' y un sistema de gestión de IA (aunque el reglamento europeo no regula la figura del IA 'compliance officer' y coordinarlo con otras áreas de la empresa (DPO; Compliance Officer; Asesoría Jurídica; Compras; Riesgos; Auditoría; IT y sobre todo RRHH) y (iv) Aprobar una política de IA que esté conectada con otras políticas y procesos internos ('compliance'; ciberseguridad; diligencia debida; informes de sostenibilidad) y garantizar el cumplimiento de la transparencia algorítmica que será esencial para evitar discriminaciones o sesgos y garantizar la equidad de los sistemas y la información previa a la representación legal de los trabajadores y a las propias personas trabajadoras.

En conclusión, los sistemas de IA en las relaciones laborales presentan grandes oportunidades de eficiencia y de productividad, pero también se debe contemplar que son de alto riesgo y que será necesario poner en el centro a las personas y cumplir las garantías legales del reglamento europeo y de las normas nacionales y es muy probable que sea un nuevo espacio por ocupar por la negociación colectiva.

Los algoritmos no serán los nuevos 'jefes', no podrán dirigir las decisiones laborales de la plantilla sin supervisión humana.

placeholder

*Carlos de la Torre, socio Área Laboral Gómez Acebo y Pombo. Consejero Académico de Fide.

El Reglamento europeo de Inteligencia Artificial (en adelante IA) es una ley histórica que incluye garantías, prohibiciones y limitaciones de uso general de los algoritmos y crea una arquitectura legal en la Unión Europea, pero que se va a extender a operadores no comunitarios que actúen en Europa. Tiene como objetivo proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad y promover, por tanto, una IA centrada en el ser humano. Ser fiable y libre de los efectos perjudiciales y discriminaciones con el objetivo último de aumentar el bienestar humano. Los sistemas de IA precisan de datos, algoritmos y capacidad de computación y por ello el nuevo Reglamento europeo de IA tiene una vinculación directa con el Reglamento europeo de Protección de Datos Personales (RGPD).

Inteligencia Artificial Unión Europea
El redactor recomienda