Unión Europea adopta las primeras reglas para limitar riesgos de la IA
Implementación de las normas se prevé para el 2026, mientras tanto, todos los gobiernos deberán adaptar su legislación local
La Unión Europea dio este martes el último paso formal para completar la adopción del acuerdo que permitirá imponer la primera legislación con la que limitar los riesgos de la Inteligencia Artificial (IA), un nuevo marco cuya aplicación plena está prevista a partir de 2026, ya que los gobiernos dispondrán de dos años para trasladar las normas a su legislación nacional.
“Es la primera regulación de este tipo en todo el mundo, enfrenta un reto tecnológico global que también crea oportunidades para nuestras sociedades y economías”, destacó el secretario de Estado belga de Digitalización y presidencia de turno de la UE, Mathieu Michel, tras el aval dado este martes por los ministros de competitividad. Este es el último paso formal para la publicación de la norma en el Diario Oficial de la UE y posterior entrada en vigor.
La nueva ley ofrece un enfoque que categoriza los niveles de riesgo y las restricciones que deben acompañar a cada estado en función de la escala, lo que implica la prohibición en casos de riesgo “inasumible”, como los sistemas de categorización biométrica, la extracción no dirigida de imágenes para crear bases de datos de reconocimiento facial, el reconocimiento de emociones, sistemas de puntuación social o sistemas que manipulan el comportamiento.
Con la ley, están previstas una serie de excepciones que permitirán el uso de sistemas de vigilancia biométrica en espacios públicos, siempre que haya orden judicial previa y para una lista de delitos estrictamente definidos.
OpenAI y la superinteligencia: Resolver problemas mundiales o poner en peligro a la humanidad
De este modo, la supervisión biométrica en tiempo real se limitará en tiempo y ubicación, y solo se podrá utilizar para la búsqueda selectiva de víctimas de secuestro, trata o explotación sexual, para evitar una amenaza terrorista específica, y para localizar o identificar a un sospechoso de haber cometido un delito de los recogidos en la norma.
También quedan definidos los sistemas de IA autorizados pero considerados de muy alto riesgo por su importante impacto en la salud, la seguridad, los derechos fundamentales, el medio ambiente y el Estado de derecho.
Unión Europea advierte a Microsoft por uso de IA en el portal Bing
Los sistemas de Inteligencia Artificial utilizados para influir en el resultado de las elecciones y el comportamiento de los votantes también se clasifican como de alto riesgo, y los ciudadanos tendrán derecho a presentar quejas y recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos.
Otra de las claves fue cómo introducir reglas específicas para los modelos fundacionales, como las plataformas ChatGPT o DALL-E, que vieron la luz después de que la Comisión Europea presentara su primera propuesta de regulación por lo que este capítulo se ha ido desarrollando en el curso de la negociación.
La legislación pionera también prevé sanciones para los incumplidores que irán desde los 35 millones de euros o el 7% del volumen de negocio global hasta los 7,5 millones de euros, en función del tamaño de la compañía.