Derecho Digital

Reglamento Europeo de IA: guía completa para empresas

Quirós Abogados · Gijón y Madrid
Respuesta rápida

El AI Act (Reglamento UE 2024/1689) establece el primer marco jurídico integral para la IA en Europa. Clasifica los sistemas por nivel de riesgo e impone obligaciones estrictas a los de alto riesgo: gestión de riesgos, calidad de datos, documentación técnica, trazabilidad, transparencia y supervisión humana. Las sanciones alcanzan hasta 35 millones de euros o el 7% del volumen de negocios mundial. La aplicación plena llega en agosto de 2026.

Qué es el AI Act

El Reglamento de Inteligencia Artificial (AI Act) constituye el primer marco regulatorio integral sobre inteligencia artificial adoptado por una gran jurisdicción económica. Su objetivo es garantizar que los sistemas de IA utilizados en la Unión Europea sean seguros, respeten los derechos fundamentales y fomenten la innovación tecnológica.

El reglamento se aplica a proveedores de sistemas de IA que comercialicen en la UE, usuarios o desplegadores establecidos en la Unión, y proveedores situados fuera de la UE cuando los resultados del sistema se utilicen dentro del territorio europeo — el denominado principio de efecto extraterritorial, ya utilizado en el RGPD.

Fuente:Reglamento (UE) 2024/1689, arts. 1 y 2.

Clasificación de riesgos

El elemento central del AI Act es la clasificación de los sistemas de IA en función del riesgo que presentan para los derechos fundamentales y la seguridad de las personas. El reglamento distingue cuatro niveles:

Riesgo inaceptable — sistemas prohibidos

Están directamente prohibidos los sistemas de manipulación cognitiva subliminal, los sistemas de puntuación social utilizados por autoridades públicas, la identificación biométrica remota en tiempo real en espacios públicos (salvo excepciones tasadas) y los sistemas que exploten vulnerabilidades de menores, personas mayores o con discapacidad.

Fuente:Reglamento (UE) 2024/1689, art. 5.

Alto riesgo

Los sistemas de alto riesgo incluyen aplicaciones en empleo y recursos humanos (selección automatizada de personal), educación, servicios financieros (evaluación de solvencia), infraestructuras críticas, y aplicaciones en justicia y seguridad. Son los más regulados.

Fuente:Reglamento (UE) 2024/1689, Anexo III.

Riesgo limitado y mínimo

Los sistemas de riesgo limitado (chatbots, generadores de contenido sintético) deben cumplir requisitos de transparencia informando al usuario que interactúa con IA. Los de riesgo mínimo no tienen obligaciones adicionales específicas.

Obligaciones para empresas con IA de alto riesgo

Modelos de IA de propósito general (GPAI)

El AI Act introduce obligaciones específicas para los modelos de IA de propósito general como los grandes modelos generativos: documentación técnica del modelo, resumen del contenido utilizado para entrenamiento y cumplimiento de normativa de derechos de autor. Los modelos de riesgo sistémico tienen obligaciones adicionales de evaluación y seguridad.

Fuente:Reglamento (UE) 2024/1689, arts. 53 a 55.

Sanciones

El régimen sancionador es uno de los más estrictos del derecho tecnológico europeo: hasta 35 millones de euros o el 7 % del volumen de negocios mundial anual para las infracciones más graves (sistemas prohibidos), hasta 15 millones o el 3 % para incumplimiento de obligaciones regulatorias, y hasta 7,5 millones o el 1 % por información incorrecta a autoridades.

Fuente:Reglamento (UE) 2024/1689, art. 99.

Calendario de aplicación

Fuente:Reglamento (UE) 2024/1689, arts. 113 y ss.

Impacto para empresas españolas

Están especialmente afectadas las empresas tecnológicas, fintech, recursos humanos, sector sanitario, industria y logística y administraciones públicas. Las organizaciones deberán adoptar estrategias de gobernanza de IA que incluyan evaluación jurídica de sistemas, auditorías algorítmicas, compliance tecnológico y formación interna. Además será necesario coordinar el AI Act con el RGPD, el DSA y la Directiva de responsabilidad por IA, actualmente en tramitación.

Preguntas frecuentes

¿El AI Act afecta a todas las empresas?
No de igual forma. Las empresas que solo utilicen herramientas de IA con riesgo mínimo o limitado tienen obligaciones reducidas. Las obligaciones más estrictas recaen sobre proveedores y desplegadores de sistemas de alto riesgo.
¿Cuándo entra en vigor el AI Act para sistemas de alto riesgo?
La aplicación plena para la mayoría de sistemas de alto riesgo es agosto de 2026. Las prohibiciones sobre sistemas de riesgo inaceptable se aplicaron desde febrero de 2025.
¿Es necesario registrar los sistemas de IA?
Los sistemas de alto riesgo deben registrarse en la base de datos europea de IA antes de su comercialización en la UE.

¿Necesita asesoramiento en Derecho Digital?

Nuestro equipo especializado en Derecho Digital le asesora en una consulta inicial gratuita.

Solicitar consulta gratuita Llamar a Gijón Llamar a Madrid