La Unión Europea ha dado luz verde en la madrugada del pasado viernes al sábado, a la primera regulación del mundo sobre inteligencia artificial, la AI Act. Aunque el acuerdo político aún no se ha hecho público, el reglamento mantiene su enfoque basado en el riesgo, tanto para la seguridad como para los derechos fundamentales de los ciudadanos.
Los negociadores del Parlamento y del Consejo Europeo llegaron a un acuerdo provisional sobre la Ley de Inteligencia Artificial. Este reglamento tiene como objetivo garantizar que los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad ambiental estén protegidos contra la IA de alto riesgo, al tiempo que impulsa la innovación y convierte a Europa en líder en este campo. Las reglas establecen obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto.
La norma plantea la prohibición de sistemas de categorización biométrica que utilizan características sensibles (por ejemplo, creencias políticas, religiosas, filosóficas, orientación sexual, raza); extracción no dirigida de imágenes faciales de Internet o imágenes de CCTV para crear bases de datos de reconocimiento facial; reconocimiento de emociones en el lugar de trabajo y en instituciones educativas y la denominada puntuación social basada en comportamiento social o características personales;
Excepciones
Los negociadores acordaron una serie de salvaguardias y excepciones estrechas para el uso de sistemas de identificación biométrica (RBI) en espacios de acceso público con fines policiales, sujetos a autorización judicial previa y para listas de delitos estrictamente definidas. La RBI “post-remota” se utilizaría estrictamente en la búsqueda selectiva de una persona condenada o sospechosa de haber cometido un delito grave.
La RBI “en tiempo real” cumpliría con condiciones estrictas y su uso estaría limitado en tiempo y ubicación, para los fines de búsquedas selectivas de víctimas (secuestro, trata, explotación sexual), prevención de una amenaza terrorista específica y presente, o la localización o identificación de una persona sospechosa de haber cometido uno de los delitos específicos mencionados en el reglamento (por ejemplo, terrorismo, trata, explotación sexual, asesinato, secuestro, violación, robo a mano armada, participación en una organización criminal, delitos medioambientales).
Obligaciones
Los eurodiputados hna incluido una evaluación obligatoria del impacto sobre los derechos fundamentales, entre otros requisitos, aplicable también a los sectores bancarios y de seguros. Los sistemas de inteligencia artificial utilizados para influir en el resultado de las elecciones y el comportamiento de los votantes también se clasifican como de alto riesgo. Los ciudadanos tendrán derecho a presentar quejas sobre los sistemas de IA y recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos.
Los sistemas de IA de propósito general (GPAI), y los modelos GPAI en los que se basan, tendrán que cumplir con requisitos de transparencia como propuesto inicialmente por el Parlamento. Estas incluyen la elaboración de documentación técnica, el cumplimiento de la ley de derechos de autor de la UE y la difusión de resúmenes detallados sobre el contenido utilizado para la formación.
Para los modelos GPAI de alto impacto con riesgo sistémico, los negociadores del Parlamento lograron asegurar obligaciones más estrictas. Si estos modelos cumplen ciertos criterios, tendrán que realizar evaluaciones de modelos, evaluar y mitigar riesgos sistémicos, realizar pruebas contradictorias, informar a la Comisión sobre incidentes graves, garantizar la ciberseguridad e informar sobre su eficiencia energética. Los eurodiputados también insistieron en que, hasta que se publiquen normas armonizadas de la UE, las GPAI con riesgo sistémico pueden depender de códigos de práctica para cumplir con la regulación.
El incumplimiento de las normas puede dar lugar a multas que van desde 35 millones de euros o el 7% del volumen de negocios global hasta 7,5 millones o el 1,5% del volumen de negocios, dependiendo de la infracción y el tamaño de la empresa.
La negociaciones han sido lideradas por la secretaria de Estado de Digitalización, Carme Artigas quien ha asegurado que es un momento “de felicitación” para todos. Igualmente ha destacado la prioridad de “salvaguardar los derechos y libertades de los ciudadanos”. Para la española esta legislación ayuda que Europa se ponga a la cabeza de la innovación tecnológica pero a la vez salvaguardando los derechos de las personas. Para el coponente Brando Benife el proceso negociador, “fue largo e intenso, pero el esfuerzo valió la pena. Gracias a la resiliencia del Parlamento Europeo”. Tras este paso, señaló, “la implementación correcta será clave: el Parlamento seguirá vigilando de cerca para garantizar el apoyo a nuevas ideas de negocios con sandboxes y reglas efectivas para los modelos más poderosos”.
El coponente Dragos Tudorache (Renew, Rumania) dijo: “La UE es la primera en el mundo en establecer una regulación sólida sobre la IA, guiando su desarrollo y evolución en una dirección centrada en el ser humano. La Ley de IA establece normas para modelos de IA grandes y potentes, garantizando que no presenten riesgos sistémicos para la Unión y ofrece sólidas salvaguardias para nuestros ciudadanos y nuestras democracias contra cualquier abuso de la tecnología por parte de las autoridades públicas. Protege a nuestras pymes, fortalece nuestra capacidad para innovar y liderar en el campo de la IA y protege a los sectores vulnerables de nuestra economía. La Unión Europea ha hecho contribuciones impresionantes al mundo; la Ley de IA es otra que tendrá un impacto significativo en nuestro futuro digital”.
El texto acordado ahora tendrá que ser adoptado formalmente tanto por el Parlamento como por el Consejo para convertirse en ley de la UE. Las comisiones de Mercado Interior y Libertades Civiles del Parlamento votarán sobre el acuerdo en una próxima reunión.