Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
El PSOE llega a su Congreso con un ojo en la continuidad y otro en los tribunales
ERC elige a su líder en un congreso convertido en un plebiscito sobre Junqueras
Opinión - España: una democracia atascada. Por Rosa María Artal

“De aquí no sale nadie hasta cerrar esto”: la intrahistoria de la ley europea de la IA liderada por España

Los negociadores de la UE discuten uno de los puntos de la nueva ley europea de la IA. En el centro, Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, representante de la presidencia española.

Carlos del Castillo

12 de diciembre de 2023 23:09 h

5

“Vimos peligrar la ley muchas veces. La gente estaba muy cansada, algunos representantes empezaron a pedir que se aplazara la negociación y se convocara un nuevo trílogo, pero no había tiempo. Retrasarlo suponía no llegar al último pleno del Parlamento Europeo antes de las elecciones, tener que esperar a que se formara una nueva cámara y seguramente quedarse varios años más sin regulación. Era ahora o nunca”.

Como reconocen fuentes del Ministerio de Transformación Digital, España se jugaba mucho en la negociación de la nueva ley europea de inteligencia artificial (IA), pactada el pasado viernes en Bruselas tras 36 horas de negociación repartidas en dos jornadas. Fue el último de los trílogos (negociación a tres bandas entre el la Comisión, el Parlamento y el Consejo europeos) para abrochar el texto.

La presidencia rotativa de la UE, que pasa de un país a otro cada seis meses, había hecho recaer en la presidencia española el cierre de una ley histórica. Ningún gran bloque ha regulado aún la inteligencia artificial y la UE quiere ser la primera.

Como presidenta, a España le tocaba organizar las negociaciones y representar en ellas al Consejo Europeo, formado por los 27 gobiernos de los países miembros. Al otro lado de la mesa estaban los negociadores del Parlamento Europeo, que representan a los ciudadanos de la UE en función de su ideología y no de las fronteras. España había puesto toda la carne en el asador para colgarse esa medalla en su mandato, poniendo el país como campo de pruebas de la regulación y siendo la primera en crear nuevos organismos como la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA).

Pero la UE también se jugaba mucho. No cerrar la ley de la IA antes de las elecciones europeas de mayo tras más de tres años de negociaciones habría supuesto un gran borrón en su plan de ser “una gran potencia reguladora” en el terreno digital. La constatación de que su estructura es tan burocrática y complicada que puede fallar y dejar asuntos clave sin regular durante años por lo trabajoso que resulta llegar a acuerdos.

La nueva ley de la IA tenía además un obstáculo añadido. El tablero había dado un vuelco en el último tramo de las negociaciones. “Lo que pasó fue ChatGPT”, explican fuentes de la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA) que han integrado la delegación española que ha presidido las negociaciones.

“La postura inicial del Consejo no tenía en cuenta productos como ChatGPT porque no existían. Pero la del Parlamento, que se tomó en junio, sí”, continúan las mismas fuentes. La negociación se complicó. “Se llegó al último trílogo con 21 temas todavía abiertos”. Entre ellos, muchos que iban a determinar la regulación de los “modelos de propósito general”, es decir, aquellas IA que no tienen una misión concreta, como la tecnología detrás de ChatGPT.

Entre los temas sin cerrar también estaban prácticamente todos los asuntos relacionados con la seguridad nacional. Una de las áreas más complicadas para las negociaciones en Bruselas, ya que no existen competencias transferidas a la UE en esta materia y los gobiernos suelen poner muy difícil cualquier legislación que coarte su capacidad de actuación. La potestad de la policía para utilizar reconocimiento facial y otras inteligencias artificiales de vigilancia masiva era un punto central en la negociación.

“Es una norma terriblemente técnica. Cada punto del articulado sobre modelos de propósito general de seguridad nacional podía llevarnos una hora de negociaciones. La gente empezaba a estar cansada pero en eso nosotros como presidencia estuvimos muy firmes: de aquí no sale nadie hasta cerrar esto. Que haya fumata blanca o fumata negra, pero tenemos que seguir”, revelan desde la SEDIA.

Una ley sin texto que ya recibe críticas

El texto oficial de la ley aún no se conoce. Los participantes en la negociación han revelado los detalles de los pactos en los asuntos clave, que elDiario.es documentó en esta información. Sin embargo, el acuerdo final ya ha sido criticado tanto en lo relativo a la vigilancia biométrica como por “matar la innovación”.

La Organización Europea de Consumidores (BEUC) ha afirmado que el resultado de las negociaciones es “decepcionante” para los ciudadanos. “Los sistemas de IA que pueden identificar y analizar los sentimientos de los consumidores (sistemas de reconocimiento de emociones) seguirán estando permitidos, lo cual es muy preocupante dado lo invasivos e imprecisos que son. La ley de IA también se centra en gran medida en los sistemas de IA de alto riesgo, dejando demasiados sistemas de IA, como los juguetes con IA integrada o los asistentes virtuales, básicamente sin regular”, ha denunciado.

“El Parlamento Europeo traía una lista de prohibiciones mucho más grande de la que se ha aprobado”, reconocen fuentes de la presidencia española. “Muchos de los sistemas que pedían prohibir han pasado a ser considerados como sistemas de alto riesgo, que son los más regulados. Es una ley que tiene todos los puntos atados y por eso los negociadores del Parlamento aceptaron estos cambios y sacar el texto adelante”, explican.

Es en esa letra pequeña donde estará el examen final de la ley. “Los negociadores de la UE celebran la conclusión de una de las legislaciones digitales más controvertidas de la historia, pero el diablo estará en los detalles”, avisan desde la European Digital Rights (EDRi), una ONG con sede en Bruselas que supervisa el respeto a los derechos digitales en las normativas de la UE.

“La medida en que la ley de inteligencia artificial proteja a los ciudadanos europeos de los peores excesos de la vigilancia, la discriminación y los perjuicios basados en la IA requerirá una evaluación más completa de los borradores técnicos, que saldrán a la luz en las próximas semanas”, recuerdan.

“La vigilancia biométrica, como el reconocimiento facial en tiempo real, está estrictamente prohibida. Se han incluido algunas excepciones muy concretas, como la investigación de delitos de terrorismo o la búsqueda de personas desaparecidas, y siempre con orden judicial”, responden desde la SEDIA. “No tenía sentido quitar a la policía la capacidad de detener terroristas utilizando esta tecnología”, manifiestan.

Francia amenaza con tumbar la ley

La presión para aumentar la regulación sobre los sistemas de IA y prohibir completamente algunos de ellos venía del Parlamento Europeo y de organizaciones de la sociedad civil. La contraparte que intentaba que la ley fuera lo más laxa posible venía desde dentro del propio Consejo Europeo al que España representaba en las negociaciones.

No solo por motivos de seguridad nacional, sino también económicos. Francia tiene una startup llamada Mistral que sueña que pueda llegar a competir con OpenAI, la desarrolladora de ChatGPT. Alemania tiene otra, Aleph Alpha. Estos dos países, junto con Italia, publicaron un documento poco antes de las negociaciones finales que pedía que este tipo de empresas (las que desarrollan “modelos de propósito general”) quedaran prácticamente al margen de la regulación.

“Lo único que le estamos pidiendo a estos modelos es transparencia. ¿Es que una empresa valorada en 2.000 millones de dólares no puede hacer que sus sistemas sean transparentes?”, ironizan sobre la cuestión desde la presidencia española. 2.000 millones de dólares es justo la valoración que ha alcanzado Mistral este fin de semana tras cerrar una ronda de financiación privada justo después de la firma de la nueva ley. La empresa se fundó hace siete meses y tiene solo 22 trabajadores.

Sin embargo Emmanuel Macron no ha quedado contento con el resultado de las negociaciones. “Podemos decidir regular mucho más rápido y mucho más fuerte que nuestros principales competidores. Pero regularemos cosas que ya no produciremos ni inventaremos. Esto nunca es una buena idea”, ha filtrado el mandatario francés.

La Asociación de la Industria de la Informática y las Comunicaciones en Europa, que integran empresas como Apple, Google, Amazon, Meta, X (ex Twitter) o Uber, se ha posicionado en el mismo sentido. “El resultado parece indicar que se sacrificó una legislación sobre IA preparada para el futuro en aras de un acuerdo rápido”, afean: “La ley de IA acordada impone obligaciones estrictas a los desarrolladores de tecnologías punteras en las que se basan muchos sistemas posteriores, por lo que es probable que frene la innovación en Europa”.

“Que haya críticas a la ley desde los dos lados es una buena señal”, responden en este caso desde la SEDIA: “Una negociación que no deja contento a nadie es una buena negociación”.

Según ha publicado el Financial Times, Francia podría plantearse rechazar la ley. Si decide hacerlo, tendría que convencer a muchos socios europeos. “Sola no podría pararla, necesita una mayoría cualificada en el Consejo”, recuerdan desde la presidencia española.

España presentará los resultados de la votación al resto de miembros del Consejo en febrero. Será el primer examen del pacto. Si los 27 dan su aprobación al texto final, este se someterá de nuevo a la votación del Parlamento Europeo en el último plenario antes de las elecciones de junio. Después, la cámara se disolverá.

Si supera todas las pruebas, la nueva ley de la IA se pondrá en marcha con un procedimiento acelerado para cubrir cuanto antes a los sistemas de alto riesgo. “Es un buen acuerdo, estamos muy contentos con el resultado. La ausencia de regulación era dejar todo en el statu quo, que era desprotección y falta de las garantías jurídicas y legales que ofrecen seguridad al mercado y permiten que este se desarrolle”, concluyen desde la SEDIA.

Etiquetas
stats