Guía práctica sobre el AI Act para empresas: clasificación de sistemas por riesgo, obligaciones, cómo hacer una auditoría de IA y plazos de aplicación.
📌 En resumen
El AI Act (Reglamento UE 2024/1689) es la primera regulación global vinculante sobre sistemas de inteligencia artificial. Clasifica los sistemas por nivel de riesgo y establece obligaciones distintas para cada categoría. Las empresas que desarrollan o despliegan sistemas de IA de alto riesgo deben documentarlos, evaluarlos y registrarlos antes de agosto de 2026.
El AI Act entró en vigor el 1 de agosto de 2024 y su aplicación es progresiva hasta 2027. Para muchas empresas, las obligaciones más urgentes ya son exigibles o lo serán en los próximos meses. Ignorar el calendario puede suponer multas significativas o tener que retirar sistemas de producción.
Esta guía resume lo que necesitas saber desde la perspectiva operativa: cómo clasifica el AI Act los sistemas, qué obliga exactamente, cómo hacer una auditoría de IA y qué documentación tienes que preparar.
El AI Act (Reglamento UE 2024/1689) fue publicado en el Diario Oficial de la UE el 12 de julio de 2024. Es el primer marco regulatorio vinculante sobre IA a escala global. Según la Comisión Europea, su objetivo es garantizar que los sistemas de IA sean seguros, transparentes, trazables y respetuosos con los derechos fundamentales.
El reglamento afecta a cualquier empresa que opere en la UE y que sea proveedora, desplegadora, importadora o distribuidora de sistemas de IA. El nivel de obligación depende del rol y del riesgo del sistema. No todas las empresas tienen las mismas obligaciones.
El AI Act clasifica los sistemas en cuatro categorías según su nivel de riesgo potencial. La clasificación determina qué obligaciones aplican y en qué plazos. Esta es la estructura de la que parte cualquier auditoría de IA.
Son sistemas cuyo uso está directamente prohibido en la UE desde febrero de 2025. Incluyen la puntuación social de ciudadanos por parte de gobiernos, la manipulación subliminal de comportamiento, la explotación de vulnerabilidades de grupos específicos y la identificación biométrica remota en tiempo real en espacios públicos (con excepciones limitadas para fuerza de seguridad).
Son los sistemas con mayor impacto potencial sobre derechos fundamentales o seguridad. El Anexo III del AI Act lista los sectores afectados: infraestructuras críticas, educación, empleo (RRHH), servicios esenciales (crédito, seguros, prestaciones sociales), aplicación de la ley, gestión de fronteras, administración de justicia y procesos democráticos.
Si tu empresa usa IA para filtrar CVs, conceder créditos, evaluar solvencia, clasificar reclamaciones o tomar decisiones sobre empleados, probablemente estás ante un sistema de alto riesgo. Las obligaciones son significativas.
Sistemas como chatbots, generadores de imágenes o herramientas de deepfake deben informar al usuario de que está interactuando con IA. Es la categoría más habitual para aplicaciones empresariales de uso general. Las obligaciones son menores pero la transparencia es exigible.
La mayoría de aplicaciones de IA (filtros de spam, recomendadores de contenido, herramientas de productividad) caen en esta categoría. El AI Act no impone obligaciones específicas, aunque sí invita a seguir códigos de conducta voluntarios.
| Nivel de riesgo | Ejemplos | Obligaciones principales | Plazo |
|---|---|---|---|
| Inaceptable | Puntuación social, manipulación subliminal | Prohibición total | Feb 2025 |
| Alto riesgo | IA en RRHH, crédito, salud, seguridad | Evaluación, registro, documentación, supervisión humana | Ago 2026 |
| Limitado | Chatbots, deepfakes, generadores de contenido | Información al usuario (transparencia) | Ago 2026 |
| Mínimo | Filtros de spam, recomendadores, herramientas de productividad | Sin obligaciones específicas | - |
Las obligaciones concretas del AI Act varían según el rol y el nivel de riesgo del sistema. Para sistemas de alto riesgo, el listado de obligaciones es sustancial.
Una auditoría de IA orientada al AI Act tiene como objetivo inventariar los sistemas existentes, clasificarlos por riesgo, identificar las brechas de cumplimiento y definir un plan de acción para cerrarlas. El proceso tiene fases claras.
El punto de partida es saber qué sistemas de IA usa o ha desarrollado la empresa. Esto incluye no solo los sistemas propios sino también los de terceros que se usan en procesos que afectan a personas: herramientas de RRHH con IA, sistemas de scoring de crédito, plataformas de atención al cliente con chatbots, etc.
Cada sistema identificado se evalúa según los criterios del AI Act: está en un sector listado en el Anexo III, toma decisiones que afectan a derechos de personas, interactúa directamente con el público. La clasificación determina qué obligaciones aplican.
Para cada sistema de alto riesgo o limitado, se revisa qué requisitos del AI Act ya se cumplen y cuáles no. Los más habituales que faltan en empresas medianas son la documentación técnica, el registro de eventos y la evaluación formal de riesgos.
Con el inventario y las brechas identificadas, se define qué hay que hacer, en qué orden y con qué recursos. La priorización tiene en cuenta el calendario regulatorio: las obligaciones de alto riesgo son exigibles desde agosto de 2026.
Para sistemas de alto riesgo, el AI Act requiere un conjunto de documentación técnica antes de su despliegue. Esta documentación debe mantenerse actualizada durante todo el ciclo de vida del sistema y estar disponible para las autoridades de supervisión.
ℹ️ Nota
La Comisión Europea está desarrollando estándares armonizados que facilitarán demostrar la conformidad con el AI Act. Las empresas que adopten estos estándares (cuando estén publicados) se beneficiarán de una presunción de conformidad para los requisitos cubiertos.
El AI Act tiene un calendario de aplicación progresivo. Conocer los plazos es clave para priorizar las acciones de cumplimiento sin entrar en pánico por todo a la vez.
| Fecha | Hito | Qué aplica |
|---|---|---|
| 1 agosto 2024 | Entrada en vigor | El reglamento entra en vigor (20 días tras publicación en DOUE) |
| 2 febrero 2025 | Prohibiciones absolutas | Sistemas de riesgo inaceptable prohibidos. Obligaciones de alfabetización IA. |
| 2 agosto 2025 | Modelos de IA de propósito general (GPAI) | Obligaciones para proveedores de LLMs y otros modelos de uso general. |
| 2 agosto 2026 | Sistemas de alto riesgo (Anexo III) | Obligaciones completas para sistemas de alto riesgo en producción. |
| 2 agosto 2027 | Resto de sistemas de alto riesgo | Sistemas de alto riesgo del Anexo I (productos regulados existentes). |
⚠️ Atención
Si tu empresa tiene un sistema de IA de alto riesgo en producción, el plazo de agosto de 2026 para cumplir es el que debe guiar tu hoja de ruta. Preparar la documentación técnica y la evaluación de conformidad desde ahora evita hacer todo bajo presión en los últimos meses.
Para profundizar en la intersección entre el gobierno del dato y el AI Act, consulta también nuestro artículo sobre gobierno del dato y AI Act y la página de gobierno del dato y calidad.
Siguiente paso recomendado
Auditamos y documentamos vuestros sistemas de IA para cumplir el AI Act con trazabilidad y evidencias.
Sin compromiso · Respuesta en < 24h
Autor
Fundador y Consultor de Datos e IA
David Aldomar es fundador y consultor principal de MERIDIAN Data & IA, consultora especializada en ayudar a pymes y empresas medianas en España a tomar mejores decisiones con sus datos. Su trabajo se centra en cuatro áreas: diseño e implantación de plataformas de datos (data warehouses, pipelines ETL con dbt, integración de ERPs y CRMs), reporting y dashboards ejecutivos en Power BI, automatización de procesos de negocio con herramientas como n8n, y desarrollo de soluciones de inteligencia artificial aplicada — desde modelos de forecasting de demanda hasta copilots internos basados en RAG con LangChain y FastAPI. Ha liderado proyectos en sectores como logística y transporte, retail y distribución, servicios financieros, manufacturing y construcción, siempre con un enfoque pragmático: diagnóstico corto, entregables concretos y transferencia de conocimiento al equipo del cliente para que sea autónomo desde el primer día. Antes de fundar MERIDIAN, acumuló experiencia en consultoría de datos y transformación digital trabajando con stacks variados — desde entornos Microsoft (SQL Server, Power BI, Azure) hasta ecosistemas open source (Python, dbt, BigQuery). Su filosofía es que un buen proyecto de datos no se mide por la tecnología que usa, sino por las decisiones de negocio que permite tomar. Escribe regularmente en el blog de MERIDIAN sobre reporting, gobierno del dato, automatización e IA aplicada, con guías prácticas orientadas a responsables de negocio y equipos técnicos de empresas que quieren sacar partido real a sus datos sin depender de grandes consultoras.
Fuentes
Seguir leyendo
10 min lectura
8 min lectura
7 min lectura
18 min lectura
17 min lectura
Última revisión: