La Comisión Europea anunció la publicación del código de conducta de la AI Act (Ley de IA), el reglamento de la UE sobre inteligencia artificial. Una pieza muy esperada para la regulación de una de las tecnologías más sensibles y transformadoras de los últimos años.
En teoría, el código de conducta de la Ley de IA debía presentarse a principios de mayo; no obstante, el descontento de las empresas, que luego se manifestó en una serie de recursos firmados por startups y grandes compañías europeas, y las dudas de los propios gobiernos de la UE sobre la entrada en vigor del reglamento ralentizaron las negociaciones y frenaron su progreso. Ahora Bruselas publica el documento que exige a los desarrolladores de modelos de IA de uso general que aborden los riesgos asociados a sus tecnologías. Como la infracción de los derechos de autor, la transparencia de los procesos y la ciberseguridad.
La Ley IA se divide en tres capítulos
El primero se refiere a la transparencia. Concretamente, los desarrolladores de sistemas de IA de uso general tendrán que dejar claro a los usuarios finales o clientes que los integren en sus procesos y productos cómo funcionan y cómo cumplen las normas de la UE. Una de las personas implicadas en la redacción del código informa de que se elaborará un documento modelo fácil de rellenar con toda la información que necesiten la Oficina de IA y el mercado para evaluar el modelo.
También está el tema de los derechos de autor. El código pretende servir de puente entre lo que dice la Ley de IA y lo que dice la legislación europea sobre derechos de autor. Quienes firmen el código tendrán que establecer una política interna de protección de los derechos de autor, con medidas técnicas para impedir que los sitios piratas "flagrantes" roben datos, respetar las posibles opciones de excluir determinados contenidos del proceso de entrenamiento del modelo de IA y estructurarse para identificar las infracciones, detenerlas y responder ante los titulares de los derechos.
El código de conducta no impone soluciones técnicas, porque el temor de la Comisión era que la letra del documento envejeciera antes que la tecnología. Y solo se ocupa de los abusos cometidos por los creadores de modelos o mediante fallos en los mismos, pero no de las infracciones cometidas por particulares, que entran dentro de la legislación sobre derechos de autor.
Por último, está el capítulo dedicado a la seguridad. Esta parte se aplica a los modelos más potentes en términos de capacidad de cálculo y los más extendidos en términos de número de usuarios. Por ejemplo, GPT-4 de OpenAI, y Gemini de Google. Estos deberán demostrar un nivel de seguridad adicional. Tendrán que hacer un plan de riesgos, en el que expliquen qué riesgos son aceptables, cuándo lo son y cómo mitigar el resto. Además, tendrán que explicar cómo se defienden de los ataques externos a su tecnología y elaborar un informe cada seis meses sobre las medidas adoptadas, la cadena interna de responsabilidad y las políticas adoptadas para evitar que un empleado, por miedo a represalias, ignore los riesgos.
Buena voluntad
El código es voluntario, quienes lo firmen recibirán apoyo en su aplicación y tendrán menores costos y obligaciones administrativas que quienes lo ignoren, promete la Comisión Europea. La firma se interpretará como una mano tendida a Bruselas. Hasta ahora, son muchas las empresas que piden públicamente la paralización de la Ley de IA, sin embargo, el número y los nombres de quienes se adhieran marcarán la diferencia. La norma entrará plenamente en vigor, incluidas las sanciones, el 2 de agosto de 2026. Así que la prisa por mostrarse amigable con Bruselas es relativa, sobre todo en un momento en el que soplan vientos de tormenta procedentes de Estados Unidos sobre las normas tecnológicas de la UE.
Una vez presentada la redacción del código, en la que han participado eminentes expertos en el sector de la IA, como Yoshua Bengio, pionero de las redes neuronales, y Marietje Schaake, ex eurodiputada y actualmente en el Centro de Política Cibernética de Stanford, la tarea de la Comisión es ahora instar a las empresas a firmarlo, iniciar el trabajo de adaptación y demostrar, por un lado a las empresas, que la Ley de IA no supone la muerte del negocio, y por otro a la sociedad civil, que Europa se preocupa de verdad por los derechos. No será una tarea fácil. Y cuanto más débil sea la Comisión, por dentro y por fuera, mayor será el riesgo de que todo se convierta en un mar de papeleo.
Artículo originalmente publicado en WIRED Italia. Adaptado por Alondra Flores.