La Inteligencia Artificial (IA) ha llegado para quedarse, revolucionando diversos aspectos de nuestra vida diaria. Sin embargo, dada su creciente influencia y los posibles riesgos asociados, la Unión Europea ha considerado esencial regular su uso. El Reglamento 2024/1689 establece normas armonizadas para la IA, destacando el control de obligaciones y el fomento de tecnologías sostenibles. Este artículo ofrece un análisis detallado del reglamento, sus plazos de implementación y las implicaciones para las empresas.
Índice de contenidos
Entrada en vigor
Es cierto que la normativa no se aplicará hasta el 2 de agosto de 2026, pero determinadas prácticas de la IA estarán ya prohibidas desde febrero de 2025, además de que habrá sistema de gobernanza de la IA en Europa, arsenal sancionador por incumplimiento, y organismos reguladores de la IA.
- Las prohibiciones de determinadas prácticas relacionadas con la IA serán ya aplicables a partir del 2 de febrero de 2025.
- Las previsiones relativas a los organismos notificados, a los sistemas de IA generales pero que implican riesgos sistémicos, al sistema de gobernanza de la IA en Europa y buena parte del arsenal sancionador serán aplicables a partir del 2 de agosto de 2025 (con lo que la base organizativa estará ya lista para cuando sea exigible el conjunto más sustancial de obligaciones).
- Será aplicable a partir del 2 de agosto de 2027 la regulación de ciertos sistemas de IA de alto riesgo (los que sean componentes de seguridad de ciertos productos o constituyan en sí mismos dichos productos caracterizados por requerirse una evaluación de seguridad para su comercialización o puesta en servicio -por ejemplo, máquinas, juguetes, ascensores o productos sanitarios-).
Protección de datos
No debemos olvidar que la IA es un riesgo brutal a nivel de protección de datos. Al fin y al cabo, las IA «aprenden», pero la gran pregunta es si aprenden respetando protección de datos o no. No es lo mismo que una IA utilice los datos de todos los usuarios para «saber cosas», que no los utilice.
Si no los utiliza, la IA será menos efectiva, pero será más respetuosa con la normativa europea. Su aplicación objetiva es la definición de lo que debemos entender como inteligencia artificial, y deja fuera pocas cosas.
Ámbito de aplicación objetivo
En cuanto al ámbito de aplicación objetivo, el Reglamento parte de una amplia definición de lo que se ha de entender por IA y deja fuera de su ámbito de aplicación sólo algunas manifestaciones concretas de estos sistemas
Queda fuera la aplicación de la IA para fines militares, también los sistemas que vaya a tener como finalidad desarrollo científico. Por consiguiente, se trata de regular los sistemas de IA, para fines comerciales y de servicios, pero queda fuera la investigación científica, militar, seguridad nacional, etc.
Mecanismos de control
Como mecanismos de control, hay tres niveles de riesgo definidos por el Reglamento. Tenemos el Riesgo inadmisible, que es lo que quedará prohibido y que va contra la UE y su normativa. Por ejemplo, sería la puntuación social, las técnicas subliminales, el aprovechar la vulnerabilidad de las personas, categorizarlas biométricamente o reconocer emociones, sobre todo si no es en ámbito privado.
Luego tenemos el alto riesgo, que incluiría todos los sistemas con IA que implican juguetes, ascensores, vehículos de motor, etc. y también los sistemas de seguros de vida y salud, clasificación crediticia de las personas, promoción, despido de personal, etc.
En cuanto al alto riesgo hay mucha clasificación y es muy extenso, debido a la materia que es muy abstracta. Por último, tenemos el riesgo bajo, que son los límites donde la IA puede desarrollarse tranquilamente, pero por supuesto con arreglo a la normativa vigente, y sometido a régimen de obligaciones de información. Podrán adherirse a códigos de conducta de la UE.
Conviene tener en cuenta que los sistemas generales de IA, como CHAT GPT o GEMINI, entrañan riesgos sistémicos, pueden causar accidentes graves, ser utilizados indebidamente, ser utilizados para ciberataques, etc.
Estructura administrativa de control y régimen sancionador
Se diseña una estructura administrativa de control y régimen sancionador, de hecho, en España ya tenemos la AGENCIA ESPAÑOLA DE SUPERVISIÓN DE INTELIGENCIA ARTFICIAL (Real Decreto 729/2023, de 22 de agosto), que debe inspeccionar, comprobar y sancionar en caso de mal uso.
A nivel europeo, la OFICINA EUROPEA DE INTELIGENCIA ARTIFICIAL será el organismo de control al que corresponden importantes funciones.
Las multas por infracciones del Reglamento de Inteligencia Artificial se han fijado como un porcentaje del volumen de negocios anual global de la empresa infractora en el ejercicio financiero anterior o un importe predeterminado, si este fuera superior, y pueden llegar hasta los 35 millones de euros o el 7 % del volumen de negocios anual total a escala mundial del infractor durante el ejercicio financiero anterior, si este importe fuera superior.
Enlaces de interés:
- La normativa ha sido publicada como el Reglamento 2024/1689, por el que se establecen normas armonizadas en materia de inteligencia artificial
Suscríbete y recibe cada jueves nuestro boletín semanal de noticias.