La Unión Europea será la primera región del mundo que regulará de una forma completa los usos de la inteligencia artificial (IA). Los Estados y el Parlamento Europeo han llegado, en la medianoche del viernes al sábado, y tras tres días de intensas y duras negociaciones, a un acuerdo provisional, un texto final que todavía deberá ser ratificado por las dos partes antes de que entre en vigor, previsiblemente a finales de 2026. Este texto define las obligaciones y normas por las que deberá regirse una tecnología que está aquí para quedarse y que está transformando completamente la vida diaria, pero que conlleva tantas posibilidades como riesgos, muchos de ellos ni siquiera aún imaginables. “El reglamento tiene como objetivo garantizar que los sistemas de IA utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores europeos”, ha asegurado en X (antes Twitter) la Presidencia española del Consejo de la UE. Cerrar esta ley era uno de los objetivos de la presidencia española, que acaba este mes de diciembre.
Los Veintisiete aseguran que quieren garantizar las posibilidades y limitar al máximo los riesgos, para lo que han negociado una ley “a prueba del futuro” que contenga la flexibilidad suficiente como para poder regular funciones o tecnologías hoy por hoy desconocidas, o para amoldarse a los cambios que experimenten las ya existentes, según habían explicado fuentes conocedoras de las negociaciones antes de que los responsables del acuerdo empezaran su maratoniana reunión a puerta cerrada en Bruselas, el miércoles. Pero el diablo, como siempre, está en los detalles, y las negociaciones “apasionadas”, como las calificaron testigos de los interminables tira y afloja, se alargaron debido al pulso entre Estados y eurodiputados —y a veces entre cada parte entre sí— sobre qué es un riesgo o no y qué excepciones y salvaguardias poner para garantizar que los derechos fundamentales individuales no se arriesgan en aras de no perjudicar la economía o los intereses de los Estados. Los detalles de lo firmado se irán conociendo en las próximas horas.
“La UE se convierte en el primer continente que pone reglas claras para el uso de la IA”, ha celebrado el comisario de Mercado Interior, Thierry Breton, uno de los grandes impulsores de la normativa. Según ha tuiteado, esta es “mucho más que un paquete de normas, es una lanzadera para que las startups europeas y los investigadores lideren la carrera global por la IA”. “La UE está muy orgullosa de ser la primera gran región en lograr una regulación tan completa. También la propia presidenta de la Comisión, Ursula von der Leyen, ha celebrado una normativa “pionera en el mundo”, un marco legal “único para el desarrollo de una IA en el que se puede confiar”, ha saludado en X (antiguo Twitter) la jefa del Ejecutivo europeo. “Europa ha liderado y ha cumplido”, ha acotado la presidenta del Parlamento Europeo, Roberta Metsola, según la cual la AI Act, como se la conoce en inglés, es una legislación “vanguardista y responsable que imponte estándares globales”.
Las negociaciones han sido auténticamente maratonianas incluso para parámetros europeos. Arrancó el miércoles a las tres de la tarde, hora local, y fueron casi 40 horas, en uno de los trílogos más largos que se recuerdan en Bruselas, según los propios participantes. Y, aunque en los últimos días todas las partes habían indicado que había acercamientos suficientes como para ser “cautamente optimistas”, los negociadores llegaron a la primera cita del miércoles con numerosos temas aún por acordar, hasta 22 puntos.
Entre ellos, los más espinosos fueron, como se preveía, la cuestión de cómo regular los modelos fundacionales en los que se basan populares herramientas como el ChatGPT, así como los sistemas de vigilancia biométrica (como el reconocimiento facial), que al final acabó siendo el punto más arduamente negociado y prolongó las discusiones hasta este viernes, debido a los fuertes recelos que despiertan estas tecnologías que potencialmente —y en algunos casos ya realmente, como se ve en algunos países con poco músculo democrático— permiten una supervisión y control estatal que puede colisionar directamente con los derechos fundamentales de los ciudadanos.
Finalmente, se ha evitado el fracaso de las negociaciones. De hecho, la cuestión de los modelos fundacionales se resolvió en horas de la madrugada del miércoles al jueves y lo que prolongó las discusiones fue la otra línea roja para los parlamentarios: usos prácticos de la IA en vigilancia mediante sistemas biométricos como el reconocimiento facial.
La Eurocámara llegó a las reuniones con una larga lista de prácticas tachadas de la ley, como la regulación de la vigilancia biométrica en tiempo real en espacios públicos, reconocimiento de emociones, policía predictiva o la categorización biométrica. Los Estados pugnaron duramente por que algunas de esas prácticas puedan realizarse, al menos por parte de las fuerzas del orden, aunque para casos muy contados y con fuertes salvaguardias, y las negociaciones se extendieron más de lo que nadie había previsto para intentar acercar unas posiciones que, a ratos, parecían irreconciliables, aunque ahora, visiblemente, se ha logrado.
Ningún otro país tiene aún una regulación tan completa como la europea. El presidente de EE UU, Joe Biden, firmó un octubre un decreto que obliga a las tecnológicas a notificar al Gobierno cualquier avance que suponga un “riesgo grave para la seguridad nacional”. Días después, el primer ministro británico, Rishi Sunak, convocó a una cumbre de la que surgió el primer compromiso de 28 países y de la UE sobre estos sistemas (Declaración de Bletchley) y la creación de un grupo de expertos para el seguimiento de sus avances.
Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.