Última revisión
29/07/2024
Inteligencia artificial y relaciones laborales (II). ¿Cómo afectará en el ámbito de las relaciones laborales el Reglamento de inteligencia artificial?
GPT Iberley IA
Copiloto jurídico
Relacionados:
Tiempo de lectura: 10 min

Autor: Dpto. Laboral Iberley
Materia: laboral
Fecha: 29/07/2024
El 12 de julio de 2024 se publicó el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, que establece normas armonizadas en materia de inteligencia artificial (IA). Este reglamento introduce un enfoque basado en riesgos para regular los sistemas de IA, especialmente aquellos considerados de alto riesgo, como los utilizados en el ámbito laboral para la selección de personal y la gestión de trabajadores. Analizamos su impacto en las relaciones laborales.

Como analizamos en nuestra noticia del 15/07/2024, el 12 de julio de 2024 se publicó el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.° 300/2008, (UE) n.° 167/2013, (UE) n.° 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial.
A pesar de que en el contexto del empleo y la protección de los trabajadores, el nuevo Reglamento no debe afectar las condiciones de empleo y de trabajo, con el fin de establecer un conjunto proporcionado y eficaz de normas vinculantes para los sistemas de IA, se aplica un enfoque basado en riesgos definidos. Por consiguiente se ha considera necesario prohibir determinadas prácticas de IA que no son aceptables, definir los requisitos que deben cumplir los sistemas de IA de alto riesgo y las obligaciones aplicables a los operadores pertinentes, así como imponer obligaciones de transparencia a determinados sistemas de IA. [Considerando (26)].
El nuevo Reglamento de inteligencia artificial (IA) introduce un enfoque basado en riesgos para regular los sistemas de IA, especialmente aquellos considerados de alto riesgo, como los utilizados en el ámbito laboral para la selección de personal y la gestión de trabajadores.
Aquellos sistemas de IA que tengan un efecto perjudicial considerable en la salud, la seguridad y los derechos fundamentales de las personas de la Unión, se calificarán como «de alto riesgo» y se verán sometidos a limitaciones. En el ámbito laboral, esta calificación ha sido otorgada a las IA utilizadas en empleo, gestión de los trabajadores y acceso al trabajo por cuenta propia (por ejemplo, programas informáticos de selección de currículos para los procedimientos de contratación). Esto supone el deber de que estos sistemas de IA estén sujetos a obligaciones estrictas antes de que puedan comercializarse (Configurar el futuro digital de Europa. Comisión Europea):
- Sistemas adecuados de evaluación y mitigación de riesgos.
- Alta calidad de los conjuntos de datos que alimentan el sistema para minimizar los riesgos y los resultados discriminatorios.
- Registro de la actividad para garantizar la trazabilidad de los resultados.
- Documentación detallada que proporcione toda la información necesaria sobre el sistema y su finalidad para que las autoridades evalúen su conformidad.
- Información clara y adecuada para el implementador.
- Medidas adecuadas de supervisión humana para minimizar el riesgo.
- Alto nivel de robustez, seguridad y precisión.
El Reglamento entrará en vigor a los veinte días de su publicación en el Diario Oficial de la Unión Europea, no obstante, será aplicable (con excepciones) a partir del 2 de agosto de 2026 (art. 13).
Repasamos las principales cuestiones que incorpora en materia laboral el nuevo Reglamento de IA:
Datos biométricos y prohibición de sistemas de IA para detectar emociones en el trabajo
Existe una gran preocupación respecto a la base científica de los sistemas de IA que procuran detectar o deducir las emociones, especialmente porque la expresión de las emociones varía de forma considerable entre culturas y situaciones, e incluso en una misma persona. [Considerando (44)].
El concepto de «datos biométricos» empleado en el presente Reglamento debe interpretarse a la luz del concepto de «datos biométricos» tal como se define en el artículo 4, punto 14, del Reglamento (UE) 2016/679, en el artículo 3, punto 18, del Reglamento (UE) 2018/1725, y en el artículo 3, punto 13, de la Directiva (UE) 2016/680. Los datos biométricos pueden permitir la autenticación, la identificación o la categorización de las personas físicas y el reconocimiento de las emociones de las personas físicas [Considerando (14)]. Del mismo modo, el concepto de «sistema de reconocimiento de emociones» a que hace referencia el presente Reglamento debe definirse como un sistema de IA destinado a distinguir o deducir las emociones o las intenciones de las personas físicas a partir de sus datos biométricos (art. 3).
Dado que los datos biométricos constituyen una categoría de datos personales sensibles, procede clasificar como de alto riesgo varios casos de uso críticos de sistemas biométricos, en la medida que su utilización esté permitida con arreglo al Derecho de la Unión y nacional pertinente. [Considerando (54)].
En este caso el Reglamento de IA se refiere a emociones o intenciones como la felicidad, la tristeza, la indignación, la sorpresa, el asco, el apuro, el entusiasmo, la vergüenza, el desprecio, la satisfacción y la diversión. Por lo tanto, los sistemas de identificación biométrica remota deben clasificarse como de alto riesgo debido a los riesgos que entrañan. Quedan excluidos de dicha clasificación los sistemas de IA destinados a la verificación biométrica, que incluye la autenticación, cuyo único propósito es confirmar que una persona física concreta es quien dicha persona dice ser, así como confirmar la identidad de una persona física con la finalidad exclusiva de que tenga acceso a un servicio, desbloquee un dispositivo o tenga un acceso seguro a un local. Además, deben clasificarse como de alto riesgo los sistemas de IA destinados a ser utilizados para la categorización biométrica conforme a atributos o características sensibles protegidos en virtud del artículo 9, apartado 1, del Reglamento (UE) 2016/679 sobre la base de datos biométricos, en la medida en que no estén prohibidos en virtud del presente Reglamento, así como los sistemas de reconocimiento de emociones que no estén prohibidos con arreglo al presente Reglamento. Los sistemas biométricos destinados a ser utilizados exclusivamente a efectos de posibilitar la ciberseguridad y las medidas de protección de los datos personales no deben considerarse sistemas de IA de alto riesgo.[Considerando (18)].
A TENER EN CUENTA. No se incluyen en este concepto los estados físicos, como el dolor o el cansancio, como, por ejemplo, los sistemas utilizados para detectar el cansancio de los pilotos o conductores profesionales con el fin de evitar accidentes. Tampoco incluye la mera detección de expresiones, gestos o movimientos que resulten obvios, salvo que se utilicen para distinguir o deducir emociones. Esas expresiones pueden ser expresiones faciales básicas, como un ceño fruncido o una sonrisa; gestos como el movimiento de las manos, los brazos o la cabeza, o características de la voz de una persona, como una voz alzada o un susurro.
Prohibición: el Reglamento prohíbe la introducción en el mercado, la puesta en servicio y el uso de sistemas de IA destinados a detectar el estado emocional de las personas en situaciones relacionadas con el lugar de trabajo y el ámbito educativo. Dicha prohibición no debe aplicarse a los sistemas de IA introducidos en el mercado estrictamente con fines médicos o de seguridad, como los sistemas destinados a un uso terapéutico. [Considerando (44)].
Deber de información: los responsables del despliegue de un sistema de reconocimiento de emociones o de un sistema de categorización biométrica informarán del funcionamiento del sistema a las personas físicas expuestas a él y tratarán sus datos personales de conformidad con los Reglamentos (UE) 2016/679 y (UE) 2018/1725 y con la Directiva (UE) 2016/680, según corresponda. Esta obligación no se aplicará a los sistemas de IA utilizados para la categorización biométrica y el reconocimiento de emociones que hayan sido autorizados por ley para detectar, prevenir e investigar delitos, con sujeción a las garantías adecuadas para los derechos y libertades de terceros y de conformidad con el Derecho de la Unión.
Selección, promoción o control de rendimiento del personal mediante sistemas de IA
También deben clasificarse como de alto riesgo los sistemas de IA que se utilizan en los ámbitos del empleo, la gestión de los trabajadores y el acceso al autoempleo, en particular para la contratación y la selección de personal, para la toma de decisiones que afecten a las condiciones de las relaciones de índole laboral, la promoción y la rescisión de relaciones contractuales de índole laboral, para la asignación de tareas a partir de comportamientos individuales o rasgos o características personales y para la supervisión o evaluación de las personas en el marco de las relaciones contractuales de índole laboral, dado que pueden afectar de un modo considerable a las futuras perspectivas laborales, a los medios de subsistencia de dichas personas y a los derechos de los trabajadores.
Las relaciones contractuales de índole laboral deben incluir, de manera significativa, a los empleados y las personas que prestan servicios a través de plataformas, como indica el programa de trabajo de la Comisión para 2021. Dichos sistemas pueden perpetuar patrones históricos de discriminación, por ejemplo contra las mujeres, determinados grupos de edad, las personas con discapacidad o las personas de orígenes raciales o étnicos concretos o con una orientación sexual determinada, durante todo el proceso de contratación y en la evaluación, promoción o retención de personas en las relaciones contractuales de índole laboral. Los sistemas de IA empleados para controlar el rendimiento y el comportamiento de estas personas también pueden socavar sus derechos fundamentales a la protección de los datos personales y a la intimidad. [Considerando (57)].
Toma de decisiones laborales o extinción de contratos: los sistemas de IA utilizados para tomar decisiones que afecten las condiciones de las relaciones laborales, promoción o rescisión de contratos, asignación de tareas basadas en comportamientos individuales o características personales, y supervisión y evaluación del rendimiento y comportamiento de los empleados también se consideran de alto riesgo.
Protección contra la discriminación y protección de los datos personales y a la intimidad
El Reglamento reconoce que los sistemas de IA pueden perpetuar patrones históricos de discriminación, por ejemplo, contra mujeres, determinados grupos de edad, personas con discapacidad, personas de orígenes raciales o étnicos concretos, o con una orientación sexual determinada, durante todo el proceso de contratación y en la evaluación, promoción o retención de personas en relaciones laborales. [Considerando (57)].
Los sistemas de IA empleados para controlar el rendimiento y comportamiento de los empleados pueden socavar sus derechos fundamentales a la protección de los datos personales y a la intimidad. [Considerando (69)].
