Guía completa del AI Act para empresas españolas: clasificación de riesgo, fechas de cumplimiento, relación con RGPD y plan de acción para adaptarse a tiempo.
📌 En resumen
El AI Act es el reglamento europeo que clasifica los sistemas de inteligencia artificial por niveles de riesgo y establece obligaciones proporcionadas para cada uno. Para empresas en España, las fechas clave son: febrero 2025 (prohibiciones en vigor), agosto 2025 (obligaciones de modelos de propósito general), agosto 2026 (sistemas de alto riesgo) y agosto 2027 (sistemas integrados en productos regulados). Esta guía detalla qué exige cada nivel, el calendario completo, la intersección con el RGPD y cómo preparar tu organización.
El Reglamento Europeo de Inteligencia Artificial (AI Act) entró en vigor el 1 de agosto de 2024. Desde entonces, sus obligaciones se van aplicando de forma escalonada. Si tu empresa usa o desarrolla sistemas de IA, necesitas saber qué te afecta y cuándo.
La buena noticia es que no se trata de cumplir todo de golpe. La mala es que las primeras obligaciones ya están en vigor y las sanciones no son simbólicas.
El AI Act regula la comercialización, puesta en servicio y uso de sistemas de inteligencia artificial en la Unión Europea. Aplica tanto a proveedores (quienes desarrollan o ponen en el mercado un sistema de IA) como a deployers (quienes usan un sistema de IA en un contexto profesional).
Si tu empresa usa ChatGPT con datos de clientes, un modelo de scoring crediticio, un sistema de videovigilancia con reconocimiento facial o un chatbot que interactúa con usuarios finales, el AI Act te afecta. No importa si el sistema lo has desarrollado tú o si usas uno de un proveedor.
El reglamento aplica a cualquier empresa que opere en la UE o cuyos sistemas produzcan efectos dentro de la UE, con independencia de dónde esté la sede.
El AI Act clasifica los sistemas de IA en cuatro niveles de riesgo, con obligaciones crecientes. La clasificación depende del uso que se le da al sistema, no de la tecnología subyacente.
Sistemas que se consideran una amenaza directa a derechos fundamentales. Están prohibidos desde febrero de 2025. Incluyen: manipulación subliminal del comportamiento, explotación de vulnerabilidades de grupos específicos (edad, discapacidad), scoring social por parte de gobiernos y reconocimiento facial en tiempo real en espacios públicos (con excepciones muy limitadas para seguridad).
Sistemas que afectan a áreas sensibles: selección de personal, evaluación crediticia, acceso a educación, administración de justicia, control de migración, infraestructuras críticas. Estos sistemas deben cumplir requisitos estrictos: evaluación de conformidad, gestión de riesgos, gobernanza de datos de entrenamiento, documentación técnica, supervisión humana y trazabilidad.
Ejemplos concretos que podrían afectar a una empresa española: un modelo de scoring para conceder créditos, un sistema de filtrado de CVs, un modelo de priorización de reclamaciones en seguros o un sistema de mantenimiento predictivo en infraestructura crítica.
Sistemas que interactúan con personas y que deben informar de que hay IA detrás. Chatbots, generadores de contenido sintético (deepfakes) y sistemas de detección de emociones deben etiquetar claramente que el usuario está interactuando con IA o que el contenido ha sido generado artificialmente.
La mayoría de sistemas de IA caen aquí: filtros de spam, recomendadores de productos, sistemas de búsqueda interna. No tienen obligaciones específicas bajo el AI Act, aunque se recomienda seguir códigos de conducta voluntarios.
| Nivel de riesgo | Ejemplos | Obligaciones principales |
|---|---|---|
| Inaceptable | Scoring social, manipulación subliminal | Prohibición total |
| Alto | Scoring crediticio, filtrado de CVs, infraestructura crítica | Evaluación de conformidad, gobernanza de datos, supervisión humana |
| Limitado | Chatbots, deepfakes, detección de emociones | Transparencia e información al usuario |
| Mínimo | Filtros de spam, recomendadores, búsqueda interna | Ninguna obligatoria (códigos voluntarios) |
El AI Act se aplica de forma progresiva. Estas son las fechas clave que toda empresa en España debería tener en su radar.
Desde el 2 de febrero de 2025, los sistemas de riesgo inaceptable están prohibidos. Si tu empresa usa algún sistema que encaje en esa categoría (manipulación, scoring social, reconocimiento biométrico no autorizado), debe haber dejado de usarlo. Las sanciones por violar prohibiciones son las más altas del reglamento: hasta 35 millones de euros o el 7 % de la facturación global.
Desde agosto de 2025, los proveedores de modelos de propósito general (como GPT, Claude, Gemini, Llama) deben cumplir obligaciones de transparencia: documentación técnica, política de cumplimiento de derechos de autor y publicación de un resumen de los datos de entrenamiento. Si el modelo se clasifica como de riesgo sistémico (más de 10^25 FLOPs de entrenamiento), se añaden evaluaciones de seguridad y obligaciones de reporte de incidentes.
Esto afecta directamente a los proveedores de modelos, pero indirectamente a ti: si usas estos modelos, debes verificar que tu proveedor cumple y documentar cómo los integras.
La fecha más relevante para la mayoría de empresas. Desde agosto de 2026, todos los sistemas de IA clasificados como alto riesgo deben cumplir los requisitos completos: sistema de gestión de riesgos, gobernanza de los datos de entrenamiento, documentación técnica detallada, registro de actividad (logs), transparencia hacia el usuario, supervisión humana y ciberseguridad.
Si tu empresa despliega un sistema de alto riesgo, como deployer tienes obligaciones específicas: usar el sistema conforme a las instrucciones del proveedor, garantizar la supervisión humana, monitorizar el funcionamiento y reportar incidentes graves.
Los sistemas de IA integrados en productos que ya están regulados por normativa sectorial europea (dispositivos médicos, maquinaria, juguetes, aviación) tienen plazo hasta agosto de 2027 para cumplir. En esos casos, la evaluación de conformidad del AI Act se integra con la del producto regulado.
⚠️ Atención
Si tu empresa usa sistemas de IA de alto riesgo, agosto de 2026 es la fecha límite. Eso significa que la preparación debería estar en marcha ahora, no dentro de seis meses. Documentar sistemas, evaluar riesgos y adaptar la gobernanza de datos lleva tiempo.
El AI Act y el RGPD no se excluyen: se superponen. Si tu sistema de IA procesa datos personales, tienes que cumplir ambas normativas simultáneamente. Hay áreas donde se refuerzan mutuamente y otras donde la coordinación requiere atención.
Siguiente paso
Gobierno del dato y calidad
Preparación para el AI Act con auditoría de sistemas y plan de remediación.
Saber más →La AEPD ha publicado herramientas y guías para ayudar a las empresas españolas a coordinar el cumplimiento de ambas normativas. Si ya tienes un marco de RGPD sólido, tienes una ventaja: gran parte de la infraestructura de gobernanza se puede reutilizar.
Prepararse para el AI Act no es solo un tema legal. Requiere coordinación entre legal, tecnología y negocio. Estos son los pasos que recomendamos.
Si hay un mensaje que repetimos con frecuencia es este: el compliance de IA sin gobernanza de datos es papel mojado. El AI Act exige que los datos de entrenamiento sean relevantes, representativos, lo más libres de errores posible y sujetos a prácticas de gobernanza adecuadas. Si no sabes de dónde vienen tus datos, quién es responsable de ellos ni qué calidad tienen, difícilmente vas a poder demostrar cumplimiento. Lo abordamos en profundidad en nuestra página de gobierno del dato y calidad.
Las empresas que ya tienen un marco de gobernanza (catálogo de datos, roles de data ownership, reglas de calidad, linaje documentado) están en una posición mucho mejor para cumplir con el AI Act que las que parten de cero.
El régimen sancionador del AI Act es gradual, pero contundente:
Cada Estado miembro debe designar una autoridad nacional de supervisión. En España, la AEPD ya ha tomado un papel activo publicando herramientas de adecuación y guías. Es previsible que sea la autoridad de referencia, posiblemente en coordinación con otros organismos sectoriales.
Para una pyme, el AI Act puede parecer abrumador. Pero la realidad es que la mayoría de pymes usan sistemas de IA de riesgo mínimo o limitado, donde las obligaciones son manejables. Lo importante es saberlo con certeza, y para eso hace falta el inventario y la clasificación. Si quieres ver las obligaciones concretas para pymes, lo detallamos en AI Act para pymes: obligaciones concretas.
Tres acciones inmediatas:
Si necesitas ayuda para evaluar tu situación, puedes ver cómo abordamos la gobernanza y el compliance en nuestra página de gobierno del dato y calidad o contactarnos para una conversación inicial sin compromiso.
Para mas informacion, puedes consultar la informe The State of AI de McKinsey.
Como deployer, tienes la obligación de usar sistemas que cumplan. Si tu proveedor no puede demostrar conformidad para un sistema de alto riesgo, deberías exigirle la documentación correspondiente o buscar una alternativa. La responsabilidad no desaparece por delegar en un tercero.
Sí. El AI Act aplica al uso de sistemas de IA, no solo a su comercialización. Si usas un modelo de scoring para decisiones internas de RRHH o un sistema de IA para evaluar riesgo crediticio, las obligaciones aplican aunque no vendas el sistema a nadie.
Siguiente paso recomendado
Preparación para el AI Act con auditoría de sistemas y plan de remediación.
Sin compromiso · Respuesta en < 24h
Autor
Fundador y Consultor de Datos e IA
David Aldomar es fundador y consultor principal de MERIDIAN Data & IA, consultora especializada en ayudar a pymes y empresas medianas en España a tomar mejores decisiones con sus datos. Su trabajo se centra en cuatro áreas: diseño e implantación de plataformas de datos (data warehouses, pipelines ETL con dbt, integración de ERPs y CRMs), reporting y dashboards ejecutivos en Power BI, automatización de procesos de negocio con herramientas como n8n, y desarrollo de soluciones de inteligencia artificial aplicada — desde modelos de forecasting de demanda hasta copilots internos basados en RAG con LangChain y FastAPI. Ha liderado proyectos en sectores como logística y transporte, retail y distribución, servicios financieros, manufacturing y construcción, siempre con un enfoque pragmático: diagnóstico corto, entregables concretos y transferencia de conocimiento al equipo del cliente para que sea autónomo desde el primer día. Antes de fundar MERIDIAN, acumuló experiencia en consultoría de datos y transformación digital trabajando con stacks variados — desde entornos Microsoft (SQL Server, Power BI, Azure) hasta ecosistemas open source (Python, dbt, BigQuery). Su filosofía es que un buen proyecto de datos no se mide por la tecnología que usa, sino por las decisiones de negocio que permite tomar. Escribe regularmente en el blog de MERIDIAN sobre reporting, gobierno del dato, automatización e IA aplicada, con guías prácticas orientadas a responsables de negocio y equipos técnicos de empresas que quieren sacar partido real a sus datos sin depender de grandes consultoras.
Fuentes
Seguir leyendo
7 min lectura
18 min lectura
8 min lectura
10 min lectura
10 min lectura
Última revisión: