La Unión Europea llegó el pasado 7 de mayo de 2026 a uno acuerdo provisional para aplazar la aplicación de algunas obligaciones del Reglamento europeo de inteligencia artificial (IA), especialmente las relacionadas con los sistemas de IA de alto riesgo.
En concreto, los requisitos aplicables a los sistemas de IA utilizados en ámbitos como la biometría, las infraestructuras críticas, la educación, el empleo, la aplicación de la ley o la gestión de frenteeres se aplicarán a partir del 2 de diciembre de 2027.
Por otra parte, los sistemas de IA utilizados como componentes de seguridad y cubiertos por legislación sectorial europea deberán adaptarse a partir del 2 de agosto de 2028.
También se retrasan hasta el 2 de diciembre de 2026 algunas obligaciones vinculadas al marcado e identificación de contenidos generados con IA, tales como imágenes, vídeos o audios creados artificialmente.
Este aplazamiento se enmarca dentro del paquete europeo "Digital Omnibus", orientado a simplificar obligaciones y reducir cargas administrativas para facilitar el despliegue de la IA en Europa.
Ahora bien, ese cambio de calendario no significa que desaparezcan las obligaciones ni la necesidad de prepararse. El propio debate europeo sobre este aplazamiento ha puesto de manifiesto que muchos estados miembros aún no disponen de las estructuras, autoridades ni mecanismos necesarios para aplicar plenamente el Reglamento, y que ese margen adicional busca evitar inseguridad jurídica y facilitar una implementación más realista.
Para las administraciones públicas catalanas, este aplazamiento supone disponer de más tiempo para prepararse, pero no elimina la necesidad de avanzar en aspectos como la transparència, la supervisión humana, la calidad de los datos, la trazabilidad o la evaluación de los riesgos de los sistemas de IA.
En paralelo, la UE también ha acordado prohibir aplicaciones de IA destinadas a generar imágenes sexualizadas no consentidas (“deepnudes” o “nudifiers”) y contenidos de abuso sexual infantil, reforzando la protección de los derechos fundamentales y de la dignidad de las personas.
Sin embargo, hay que tener en cuenta que este acuerdo todavía debe ser aprobado formalmente por el Parlamento Europeo y el Consejo antes de su entrada en vigor definitiva.
Desde la AOC seguimos trabajando para ayudar a las administraciones catalanas a prepararse para este nuevo marco regulador, impulsando metodologías y herramientas de gobernanza responsable de la IA.
En este contexto, los informes de transparència algorítmica (TRAL) se consolidan como una herramienta estratégica para explicar de forma clara y comprensible cómo funcionan los sistemas de IA, qué datos utilizan, qué riesgos pueden comportar y qué garantías se aplican para asegurar un uso responsable, transparente y alineado con los derechos de la ciudadanía.