EU AI Act: guía de cumplimiento para recruiting 2026
By Taleva Research·18 de febrero de 2026·10 min de lectura
La Ley de Inteligencia Artificial de la Unión Europea es el primer marco legal integral del mundo sobre IA. Para los equipos de recruiting y HR tiene implicaciones relevantes: los sistemas de IA usados en decisiones de contratación se clasifican como de alto riesgo, lo que activa requisitos estrictos de transparencia, documentación y supervisión.
Esta guía desgrana qué dice la regulación, cuándo entra en vigor y qué deben hacer los equipos de recruiting para prepararse.
Calendario: fechas clave para recruiting
| Fecha | Hito | Impacto en recruiting |
|---|---|---|
| 1 ago 2024 | Entrada en vigor del AI Act | Empieza el periodo de gracia; conviene iniciar evaluaciones |
| 2 feb 2025 | Prácticas prohibidas ya prohibidas | Social scoring, IA manipulativa y reconocimiento de emociones en el trabajo quedan restringidos |
| 2 ago 2025 | Aplican normas de IA de propósito general | Las herramientas de recruiting basadas en LLM deben cumplir requisitos de transparencia |
| 2 ago 2026 | Aplican normas de sistemas de alto riesgo | Cumplimiento total exigido para herramientas de recruiting con IA |
| 2 ago 2027 | Aplicación plena | Sanciones por incumplimiento: hasta 35M EUR o el 7% de la facturación global |
Fuente: Reglamento (UE) 2024/1689 (EU AI Act), Diario Oficial de la Unión Europea.
Categorías de riesgo: dónde encaja la IA de recruiting
El AI Act clasifica los sistemas de IA en cuatro niveles de riesgo. Las aplicaciones de recruiting caen de lleno en la categoría de alto riesgo.
| Nivel de riesgo | Ejemplos | Requisitos |
|---|---|---|
| Inaceptable | Social scoring, manipulación subliminal, reconocimiento de emociones en el trabajo (ciertos usos) | Prohibidos |
| Alto | Screening de CVs, ranking de candidatos, análisis automatizado de entrevistas, apoyo a decisiones de contratación | Evaluación de conformidad, documentación, supervisión humana, gobierno del dato, registro |
| Limitado | Chatbots (deben revelar que son IA), optimización de anuncios | Obligaciones de transparencia |
| Mínimo | Filtros antispam, herramientas básicas de scheduling | Sin requisitos específicos |
Fuente: EU AI Act, Anexo III (sistemas de IA de alto riesgo), categoría 4: empleo, gestión de trabajadores y acceso al autoempleo.
Qué deben hacer los recruiters
Si tu organización usa herramientas de IA que influyen en decisiones de contratación, esto es lo que exige la regulación:
1. Realizar una evaluación de conformidad
Antes de desplegar un sistema de IA de alto riesgo, debes evaluar si cumple los requisitos del reglamento. Para la mayoría de herramientas de recruiting será una autoevaluación más que una auditoría externa, pero debe quedar documentada con rigor.
2. Mantener documentación técnica
Necesitas documentación clara sobre cómo funciona el sistema, con qué datos se entrenó, cuál es su propósito, sus limitaciones conocidas y las métricas que evalúan su rendimiento. Aplica tanto si lo construyes internamente como si lo compraste a un proveedor.
3. Garantizar supervisión humana
Los sistemas de IA no pueden tomar decisiones de contratación totalmente autónomas. Una persona cualificada debe poder entender, revisar y anular las salidas del sistema. Eso significa mantener a un humano en el bucle para shortlists, scoring y decisiones de rechazo.
4. Implementar gobierno del dato
Los datos de entrenamiento deben ser relevantes, representativos y estar libres de errores. Las organizaciones deben documentar fuentes, métodos de preprocesado y las medidas adoptadas para detectar y mitigar sesgos en el dataset.
5. Dar transparencia al candidato
Hay que informar a los candidatos cuando se use IA en el proceso. Tienen derecho a saber que se usa un sistema de IA, qué hace y cómo solicitar una revisión humana de decisiones automatizadas.
6. Registrar en la base de datos de la UE
Los sistemas de IA de alto riesgo deben registrarse en la base de datos pública de la UE antes de ser comercializados o puestos en servicio.
Preparación para el cumplimiento: dónde están las compañías
| Actividad de cumplimiento | % de compañías iniciadas | % completadas |
|---|---|---|
| Inventario de sistemas de IA (recruiting) | 62% | 28% |
| Clasificación de riesgo de herramientas | 48% | 19% |
| Revisión de cumplimiento de proveedores | 44% | 15% |
| Documentación técnica | 35% | 11% |
| Pruebas y auditorías de sesgo | 31% | 9% |
| Avisos de transparencia a candidatos | 41% | 22% |
| Procedimientos de supervisión humana | 52% | 24% |
Fuentes: PwC EU AI Act Readiness Survey 2025, Mercer Global Talent Trends 2026, estimaciones CIPD.
Sanciones por incumplimiento
El EU AI Act establece sanciones muy relevantes por incumplimiento:
- Prácticas de IA prohibidas: hasta 35 millones de EUR o el 7% de la facturación anual global, lo que sea mayor.
- Infracciones en sistemas de alto riesgo: hasta 15 millones de EUR o el 3% de la facturación anual global.
- Información incorrecta: hasta 7,5 millones de EUR o el 1% de la facturación anual global.
- Reducciones para PYMEs: se aplican topes más bajos para pequeñas y medianas empresas.
Encuentra a tu próximo candidato más rápido
Descubre cómo Taleva convierte el sourcing en shortlists cualificadas en minutos.
