En junio de 2020, justo tras el confinamiento duro, el Parlamento Europeo creó el Comité AIDA (Comité Especial del Parlamento Europeo sobre Inteligencia Artificial en la Era Digital). Su objetivo era estudiar el impacto y los retos del despliegue de la Inteligencia Artificial para determinar los objetivos comunes de la UE y presentar recomendaciones sobre las mejores formas de avanzar en ella.
De sus 34 miembros, tres son españoles: Ibán García del Blanco (S&D / PSOE), Susana Solís (Renew / Ciudadanos) y Pilar del Castillo (PPE / PP), de izquierda a derecha en la imagen que encabeza este artículo. La disposición no es casual.
Ningún otro eurodiputado español ha tenido un peso mayor en la recién aprobada Ley de Inteligencia Artificial, y con ellos hemos hablado sobre ella.
Una Ley comparativamente rápida
Si uno repasa los plazos en los que ha llegado esta Ley, si bien no tienen comparación con los que se pueden dar en la empresa privada, sí son bastante más ágiles que los que se han manejado en legislaciones previas, como la GDPR, que tardó casi el doble en materializarse que la Ley de IA, seis años frente a tres y medio.
«Un truco fue que el trabajo había comenzado previamente, la Comisión anterior encargó algo tan importante como fue el libro blanco sobre IA. Esta agenda ha sido intensísima y prácticamente sin parar. Hubiera sido un fracaso si no hubiéramos sido capaces de tener una regulación ya», explica Ibán.
Aunque el plazo es comparativamente mejor que el de regulaciones similares anteriores, podría haber sido aún más corto, pero algunos puntos concretos han sido ampliamente debatidos y han demorado el momento de la aprobación.
«Los tiempos siempre son largos», cuenta Pilar. «Lo que ha tardado más de lo habitual es el procedimiento dentro del Parlamento, por ejemplo con el tema de la identificación biométrica en streaming [en remoto]. La posición de Consejo y Comisión era que solo la hubiera en determinados casos: terrorismo, que afecten a los niños, etc. Y una parte del Parlamento no la quería en ninguna de las circunstancias. El acuerdo final ha sido con una lista tasada, con autorización judicial y en casos de extraordinaria gravedad», añade la eurodiputada popular.
La llegada de la IA generativa, simbolizada en el lanzamiento de ChatGPT a finales de 2022, es otro factor que supuso una demora, según Susana. «Urgía que este marco regulatorio entrase en vigor cuanto antes, vemos que la tecnología ha avanzado rapidísimamente. Se han acortado muchísimo los plazos. Tenemos seguridad jurídica y sobre todo, si queremos hacer una tecnología confiable, debemos empezar a transmitir que la UE lidera».
La eterna búsqueda del equilibrio
Luego está el clásico debate, casi tautológico en cualquier materia que se pone sobre el estrado europeo, en torno a la búsqueda de un equilibrio entre potenciar la innovación y asegurar los derechos de la ciudadanía que usa estos servicios.
Esta Ley no ha sido una excepción en esta búsqueda, y no solo ha sido motivo de tensiones y puntos de encuentro entre perspectivas nacionales, sino también entre miembros del propio Consejo.
«Incluso dentro del Parlamento ha habido aproximaciones diferentes en relación a la materia que cada uno de los comités tiende a priorizar. Es decir, el Comité de Libertades Públicas, por poner un ejemplo, suele ser mucho más protector de lo que puede ser el de Mercado Interior, por ejemplo, en materia de derechos fundamentales. Esta complejidad y la cantidad de intereses y visiones diferentes nos ha obligado a llegar a un gran consenso, a una gran síntesis de todo eso. Y creo que es lo que puede propiciar que tengamos ese equilibrio», analiza Ibán.
Algunas naciones europeas también han ido modulando su discurso en función del momento: Francia tuvo la presidencia rotatoria de la UE en el primer semestre de 2022, y en ese momento se mostró activa para solicitar que todos los modelos fuesen considerados de alto riesgo.
En cambio, durante las últimas semanas su presión apuntaba a un enfoque más flexible y tolerante con las empresas que desarrollan esos modelos. No es casualidad que una de las cosas que ha cambiado desde entonces haya sido la aparición de Mistral AI, un potencial rival francés para OpenAI. «El tiempo ha ido modificando las posiciones de muchos de los agentes«, sintetiza el eurodiputado socialista.
El ansiado equilibrio que no descuide la potenciación de la innovación es a lo que se refiere Susana: «El marco regulatorio nos da la seguridad de que se respetan los derechos fundamentales de todos los ciudadanos, algo que no tienen otros continentes, pero luego vas a tener que desarrollar mucha normativa sectorial, mucha legislación secundaria, para que sea ágil y nos permite que las empresas se puedan adaptar rápidamente a una tecnología que tiene una velocidad exponencial. Europa tiene que ser capaz de poder reaccionar. Si no, tendremos una ley de IA muy buena pero nos quedaremos atrás en competitividad y liderazgo«, añade Solís.
Esa agilidad ha sido otro de los puntos críticos durante estos años: un interés progresivo y bastante unánime en lograr que la implementación de esta regulación no se convirtiese en una sobrecarga burocrática para las empresas, especialmente para pymes y startups, con menos recursos que poder destinar a este tipo de trámites regulatorios.
«A lo largo de toda la legislación se han introducido muchísimas alusiones a pymes y startups. Por supuesto, tienen que rendir cuentas, pero se les ha minimizado la entrega y documentación que tienen que justificar para que no sea una traba innecesaria. Hemos insistido muchísimo con los sandboxes, para nosotros eran fundamentales», explica Susana.
Esos sandboxes que remarca son los entornos de prueba controlados de cada estado miembro: permiten desarrollar sistemas de IA de alto riesgo que de otro modo no podrían probarse en un entorno real. Ayudan a identificar y mitigar riesgos en ese entorno controlado y aumentan la confiabilidad de los sistemas, si bien han despertado algunas dudas en expertos del sector.
Para Pilar, la clave es que la innovación «se preserva porque está muy definido el ámbito de aplicación de esta regulación. Es la primera vez que la IA está sometida a una regulación, y es positivo. A mi modo de ver, en la UE ha habido un esfuerzo por señalar aspectos de derechos fundamentales y seguridad que están bien detectados, y la aplicación de IA puede generar un problema en esos sectores. La innovación no sale perjudicada, todas las empresas, sean startups, pymes o grandes empresas, pueden seguir innovando y van a hacerlo.
El rol de la Oficina Europea de IA
Uno de los debates surgidos durante todo este tiempo en el desarrollo de esta ley ha sido la figura de la Oficina Europea de Inteligencia Artificial, que incluso comenzó con algunas voces en contra de su existencia y ha acabado saliendo entre lamentos de que no tenga todavía más competencias.
Su cometido es encargarse de la regulación sobre modelos generativos y ser la responsable del registro europeo de este tipo de aplicaciones. También de lo que caiga bajo el epígrafe de sistema de alto riesgo, el nivel más sensible entre los que estarán permitidos bajo el paraguas de esta nueva Ley.
También se encarga de representar a la UE en foros internacionales de IA, investigar posibles infracciones y promover la cooperación entre actores públicos y privados.
«Nace como un órgano de la Comisión, pero tiene cierta autonomía. Tiene presupuesto propio y un capítulo personal propio. Su tendencia, por mor de su propia naturaleza, creo que será crecer cada vez más y adquirir más autonomía y más capacidad«, añade Ibán sobre este organismo. Y remata: «Yo creo que se queda corta, es mi perspectiva. Debería haber sido un organismo todavía mucho más potente».
Para Susana, el papel de este organismo será de «armonizador, de coordinador a nivel europeo. Se nutrirá de un grupo de expertos, que es importante para no quedarnos atrás, y tendrá un rol muy importante en todos los criterios que se decidan en la IA generativa».
Una de las preguntas que suscita esta nueva ley tiene que ver con qué ocurre cuando se detecta a un infractor, y sobre todo, cómo se le puede detectar. Por ejemplo, si recurre a un chatbot sin especificar que es un chatbot, o si utiliza contenido sintético que no está etiquetado como contenido artificial.
Las sanciones previstas en la normativa están en una línea similar a la que plantean otros reglamentos como la DMA: pueden alcanzar los 35 millones de euros o el 7% de la facturación mundial.
Por contextualizar la cifra, esto sería el equivalente al 7% de la facturación global de algunas empresas tecnológicas:
- Amazon: 40.250 millones de dólares
- Apple: 26.950 millones de dólares
- Microsoft: 14.770 millones de dólares
- Alphabet: 21.490 millones de dólares
- Meta: 9.450 millones de dólares
- NVIDIA: 1.881 millones de dólares
En cuanto a cómo detectar a los infractores… «La aplicación ordinaria de la ley corresponde a las autoridades nacionales», explica Ibán. «Son ellas quienes tendrán que nombrar un organismo para esto». En España, por ejemplo, ya se anunció la Agencia Española de Inteligencia Artificial, con sede en A Coruña.
De este tipo de entidades nacionales saldrán detalles como la forma de cazar a quien no etiquete sistemas de IA del nivel de riesgo limitado, o quien comercialice sistemas de riesgo alto sin que pasen por el proceso de revisión y conformidad.
Lo que está por venir
Con la llegada de esta ley, las empresas —europeas o extracomunitarias— que quieran desplegar sistemas de IA en la UE sabrán a qué atenerse y tendrán claras las normas del partido. Algo que es percibido como un gran valor añadido frente a la incertidumbre anterior y la sensación de que una regulación todavía estaba por llegar.
«Sabrán qué normas seguir, qué consecuencias tendrá cada uno de sus comportamientos y cómo se comportará la administración en 27 países del mundo, de la misma forma. Eso será una ventaja. También tendrán que hacer un esfuerzo de adaptación, claro», comenta García del Blanco.
En ese sentido, preguntamos por un actor que suele ser visto con especial suspicacia a ambos lados del Atlántico cada vez que hablamos de IA y aplicaciones potencialmente peligrosas: China. Una de las figuras que la nueva ley contempla como «riesgo inaceptable», la vigilancia masiva, es absolutamente cotidiana allí.
¿Mantiene esa aspiración con esta ley recién aprobada?
«Claro. Es que si no, no podrá operar en la UE. Las empresas tendrán que elegir si quieren operar en nuestro mercado o no. Y si lo hacen, tendrán que adaptarse y cumplir la ley. China es uno de los agentes que se ha mostrado interesado en sentarse y discutir parámetros que podamos compartir a nivel mundial sobre regulación. En ese sentido, ha dado pasos que considero correctos. Países de América Latina también van avanzando con una regulación. Estados Unidos en cambio se ha mostrado más renuente», añade Ibán.
«En el uso de la IA, si algo ha hecho Europa es decir que lo que se permite en China jamás podrá permitirse en Europa, creo que es algo que tenemos que tener clarísimo«, dice Susana sobre este asunto. «Es impredecible lo que China puede hacer, es poco transparente. «Nosotros podemos marcar estándares, creo que pueden seguir los nuestros y tenemos que ir hacia un marco internacional donde nos unamos todos».
Sobre China y una hipotética no-llegada de ciertos servicios a suelo europeo a tenor de esta nueva regulación, Ibán tiene claro que «si no operan así en la UE es porque incumplen una serie de parámetros fundamentales».
También deja caer que a veces la reacción a este tipo de legislaciones llega en forma de amenaza de fuga. «¿Alguien se ha ido de Europa? Creo que nadie», dice sin dar nombres, aunque nos podemos imaginar uno: Meta, antes Facebook, amagó con abandonar el viejo continente en 2022. No lo hizo. Ahora empieza los cantos de sirena sobre si Apple puede hacer lo propio como respuesta a la DMA.
Y sobre si este tipo de regulaciones pueden derivar en plataformas que funcionen a dos velocidades —una para la UE, otra para el resto del mundo—, de forma similar a lo que ha ocurrido con la propia Apple y su App Store tras la entrada en vigor de la DMA, la política de Ciudadanos opina que todo irá confluyendo hacia el modelo europeo.
«Creo que todo el mundo acepta que es un buen modelo, basado en los usos de riesgo y no en la tecnología en sí misma. Si no, tendremos el riesgo de crear un mundo de dos velocidades tecnológicas y eso Europa no se lo puede permitir. La IA es necesaria para nuestra economía y nuestra competitividad, para nuestra salud… Los beneficios son enormes, no nos podemos permitir que haya innovación», sentencia Solís.
Para la eurodiputada popular, la clave es que haya «una gobernanza de IA, el conjunto de valores para que se pueda confiar en ella, en su veracidad, en que conocemos realmente lo que nos están dando, si es IA o no, qué efectos tiene… Y en seguridad, con una gobernanza de datos. En Estados Unidos también está habiendo un debate regulatorio ya».
Con este recorrido hasta llegar a esta aprobación, solo quedan unos pasos más para que sea una realidad. En primer lugar, se prevé que haya alguna corrección de carácter técnico en los próximos días. Solo de carácter técnico. Algo que da una pista de la celeridad con la que se ha aprobado esta ley para poder llegar a tiempo, antes de las elecciones de junio.
Luego ya será cuestión de que sea publicada y se calendarice su entrada en vigor. El tiempo ordinario para ello es de dos años, pero hay algunos plazos especiales. Las prohibiciones absolutas son un ejemplo de ellos: su tiempo de gracia se reduce a seis meses. Y otras normas, como las aplicables a modelos de IA generativa, lo aumentan a un año.
El término normal, en cualquier caso, son dos años, y será de aplicación directa en todos los países de la Unión, sin requerir transposiciones a legislaciones nacionales. Empieza la cuenta atrás.