La inteligencia artificial está transformando rápidamente sectores clave, y con ello surge la necesidad de un marco normativo que regule su uso de manera segura y ética. El AI Act, o Reglamento Europeo sobre Inteligencia Artificial, responde a esta demanda, siendo la primera regulación integral en la Unión Europea diseñada para clasificar los sistemas de IA según el riesgo que representan para los derechos fundamentales y la seguridad de las personas. En el siguiente artículo presentamos una pequeña introducción a modo de extracto o resumen sucinto de la norma que de ofrece una visión clara del timeline de implementación del AI Act y las principales obligaciones que deberán cumplir las empresas y desarrolladores, permitiendo una adaptación ordenada a esta normativa.
El AI Act, o Reglamento Europeo sobre Inteligencia Artificial, constituye la primera regulación integral diseñada para garantizar que los sistemas de IA en la Unión Europea se utilicen de forma segura y respetuosa con los derechos fundamentales. Este reglamento tiene como objetivo clasificar las tecnologías de inteligencia artificial en función del nivel de riesgo que representan para la sociedad y los derechos humanos.
Fecha de entrada en vigor y fases de implementación del AI Act
El AI Act fue aprobado el 12 de julio de 2024 y entrará en vigor el 1 de agosto de 2024. Sin embargo, su aplicación será gradual, con varios hitos importantes que marcarán cuándo las principales disposiciones comenzarán a ser exigibles. Esta progresividad responde a la complejidad tecnológica de la inteligencia artificial y a la necesidad de desarrollar normas técnicas específicas para su implementación.
Por ejemplo, la normativa será plenamente aplicable a partir del 2 de agosto de 2026, permitiendo a las empresas y desarrolladores de IA un periodo de adaptación de veinticuatro meses. Durante este tiempo, podrán ajustarse a las nuevas obligaciones impuestas por el reglamento.
Febrero de 2025: Primeras prohibiciones sobre sistemas de IA de riesgo inaceptable
Uno de los hitos más importantes del cronograma es el que tendrá lugar seis meses después de la entrada en vigor, en febrero de 2025. A partir de esa fecha, comenzarán a aplicarse las disposiciones que prohíben el uso de ciertos sistemas de IA considerados de riesgo inaceptable. Entre estos, se incluyen aquellos que representan una amenaza directa para los derechos humanos, como los sistemas de manipulación subliminal y los sistemas de puntuación social que evalúan a las personas en función de su comportamiento o características personales, algo similar al sistema de puntuación social utilizado en China.
Agosto de 2025: Implementación de la supervisión y gobernanza de sistemas de IA de alto riesgo
Un año después de la entrada en vigor, en agosto de 2025, se activarán disposiciones más amplias, entre las que destaca la supervisión de los sistemas de alto riesgo por parte de organismos notificados. Estos sistemas, utilizados en áreas sensibles como la sanidad, la educación, la justicia o los procesos de contratación laboral, no estarán prohibidos, pero deberán cumplir con medidas estrictas de seguridad, transparencia y permitir siempre una supervisión humana.
Agosto de 2027: Aplicación total del AI Act en Europa
El cronograma culminará en agosto de 2027, cuando todas las obligaciones impuestas por el AI Act estarán plenamente en vigor. Esta fase final permitirá que la Unión Europea disponga de un marco normativo completo para regular el uso de la inteligencia artificial en distintos sectores, garantizando que las empresas y los desarrolladores de IA operen conforme a los estándares de seguridad y protección de derechos humanos.
Clasificación de los sistemas de IA según el riesgo
El AI Act clasifica los sistemas de IA en cuatro niveles de riesgo, cada uno con diferentes obligaciones para los desarrolladores y usuarios:
- Sistemas de riesgo inaceptable: Totalmente prohibidos por su amenaza a los derechos humanos. Estos incluyen los sistemas que manipulan el comportamiento humano, como los de puntuación social, y aquellos que explotan vulnerabilidades de personas vulnerables, como niños o personas con discapacidades.
- Sistemas de alto riesgo: Sujetos a estrictas medidas de seguridad y transparencia, utilizados en sectores sensibles como la sanidad o el empleo. Estos sistemas no están prohibidos, pero deben permitir la intervención humana y cumplir con un riguroso control.
- Sistemas de riesgo limitado: Aplicaciones de IA con un impacto menor sobre los derechos de las personas, como chatbots o deepfakes. Aunque su riesgo es bajo, la ley exige que los usuarios sepan cuándo están interactuando con una IA.
- Sistemas de mínimo riesgo: IA de uso cotidiano, como filtros de spam o videojuegos. Estos no están sujetos a regulaciones específicas debido a su baja peligrosidad.
El Código de Buenas Prácticas como guía para el cumplimiento
Para facilitar la transición hacia el cumplimiento del AI Act, se ha desarrollado el Código de Buenas Prácticas, una herramienta provisional destinada a ayudar a los desarrolladores y proveedores de IA a adecuarse a las nuevas obligaciones mientras se terminan las normas técnicas definitivas. Aunque no es jurídicamente vinculante, seguir las directrices de este código permitirá presumir la conformidad con la normativa.
El código incluye recomendaciones como la documentación técnica de los sistemas, el respeto a los derechos de autor, y la divulgación de información relevante sobre los datos utilizados en los modelos de IA. Para los modelos de IA con riesgo sistémico, como aquellos entrenados con grandes volúmenes de datos y alta capacidad de procesamiento, se añaden requisitos adicionales, como evaluaciones de riesgos y medidas de ciberseguridad.
Impacto del AI Act en España: Desafíos y oportunidades
El AI Act ofrece a España una oportunidad significativa para consolidarse como líder en la adopción responsable de la inteligencia artificial, en un contexto de rápido crecimiento tecnológico y digitalización. No obstante, es fundamental que las empresas, desarrolladores y profesionales del derecho estén al tanto de las obligaciones que impone esta nueva regulación para poder adaptarse de manera efectiva.
El Código de Buenas Prácticas será clave para que los proveedores de IA en España puedan adelantarse al cumplimiento del reglamento, mientras se finalizan las normas técnicas. Además, garantizar la protección de los derechos fundamentales y la ciberseguridad será esencial para una implementación exitosa de la normativa en el país.
Si te ha gustado este artículo, puede que te guste leer más sobre IA en el siguiente artículo «Hablemos sobre IA»