El acuerdo al que habían llegado las instituciones comunitarias el pasado diciembre fue respaldado con 523 votos a favor, 46 en contra y 49 abstenciones. Falta ahora la ratificación de los Veintisiete Estados miembro en el Consejo de la UE para su aprobación definitiva, aunque la normativa no entrará en vigor hasta 2026. La idea es que este marco sea aplicable a la inteligencia artificial generativa, como Chat GTP, que puso patas arriba el texto legislativo que se había planteado previamente. «Acogemos con satisfacción el abrumador apoyo del Parlamento Europeo a la Ley de la UE sobre la inteligencia artificial el primer marco global y vinculante del mundo para una IA de confianza. Europa es ahora un referente mundial en materia de IA fiable», ha indicado el comisario de Mercado Interior Thierry Breton que ha subrayado que hace cinco años que se empezó a trabajar para estructurar el espacio digital.
La normativa veta el uso de la inteligencia artificial en ciertos sectores que podrían poner en riesgo los derechos de los ciudadanos. Se incluye entre estas prácticas prohibidas la categorización biométrica que utilice características sensibles, la captura indiscriminada de imágenes faciales de internet o el uso grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial. La normativa incluye también otras salvaguardias. Se vetará el reconocimiento de emociones para crear sistemas de puntuación ciudadana, como los que aplica China. Tampoco que podrá utilizar este sistema en el lugar de trabajo, en las escuelas, en las actuaciones policiales predictivas (cuando se base en el perfil de una persona o en la evaluación de sus características) y la inteligencia artificial que manipule el comportamiento humano o explote las vulnerabilidades de las personas.
Las fuerzas de seguridad contarán con excepciones muy concretas y bien definidas para utilizar la identificación biométrica, siempre con autorización judicial. Aunque en términos generales será una práctica que esté vetada. Tales excepciones se refieren a un período y lugar específicos y con una autorización judicial o administrativa. Se podría aplicar en la búsqueda de una persona desaparecida o en caso de prevención de un ataque terrorista.
La normativa establece también una serie de requisitos de transparencia aplicables al uso de la Inteligencia artificial y los modelos en los que se basan. La idea es garantizar el respecto a los derechos de autor y publicar resúmenes detallados de cómo se entrenan los modelos. Además, las imágenes, contenidos de audio o de vídeo creados por inteligencias artificiales deberán etiquetarse claramente como tales.
Se ha categorizado, en esta normativa, ejemplos de inteligencia artificial de alto riesgo, como los relacionados con infraestructuras críticas, educación, seguridad o derechos fundamentales. Se incluyen también medio ambiente, Estado de Derecho o democracia en esta lista. Estos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y contar con supervisión humana.