El acuerdo entre el Consejo y el Parlamento Europeo alcanzado el pasado día 9 de diciembre sobre las normas armonizadas en materia de inteligencia artificial posiciona a la Unión Europea como la primera comunidad en el mundo en contar con una regulación de la IA que puede ser, además, un estándar para otras jurisdicciones.
El acuerdo calificado por Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial de nuestro país, como “un logro histórico y un gran hito hacia el futuro”.
Artigas destacó que “aborda eficazmente un desafío mundial en un entorno tecnológico en rápida evolución en un ámbito clave para el futuro de nuestras sociedades y economías”.
El proyecto de reglamento tiene por objetivo garantizar que los sistemas de IA introducidos en el mercado europeo y utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores de la UE.
La normativa establece reglas para evitar que la IA cause daño a la sociedad y en función del riesgo que pueda causar más estrictas serán las reglas.
El riesgo mínimo es en el que entran la mayoría de los sistemas de inteligencia artificial. Las aplicaciones de riesgo mínimo como los sistemas de recomendación o los filtros de correo no deseado basados en la inteligencia artificial, disfrutarán de libertad y ninguna obligación al respecto porque no presentan riesgo para los derechos o los ciudadanos; pero de forma voluntaria las empresas podrán suscribir códigos de conducta adicionales sobre estos sistemas.
Los sistemas de inteligencia artificial definidos como de alto riesgo deberán cumplir requisitos estrictos como sistemas de mitigación de riesgos, conjuntos de datos de alta calidad, registro de actividad, documentación detallada, información clara a los usuarios supervisión humana y un alto grado de solidez, precisión y ciberseguridad.
En este apartado de alto riesgo se encuentran los relacionados con las infraestructuras críticas, por ejemplo, en los ámbitos del agua, el gas y la electricidad; productos sanitarios; sistemas para determinar el acceso a instituciones educativas o para la contratación de personas; o determinados sistemas utilizados en los ámbitos de la policía, el control fronterizo, la administración de justicia y los procesos democráticos. Y los sistemas de identificación biométrica, categorización y reconocimiento de emociones.
En el apartado de riesgo inadmisible se encuentran los sistemas de inteligencia artificial que se consideren una clara amenaza para los derechos fundamentales de las personas. Esto abarca los sistemas o las aplicaciones de inteligencia artificial que manipulen el comportamiento humano para eludir la voluntad de los usuarios y los sistemas que permitan la “puntuación social” por parte de Gobiernos o empresas
Y en el riesgo específico de transparencia la norma indica los sistemas de inteligencia artificial como robots conversacionales, los usuarios deben ser conscientes de que están interactuando con una máquina. Los usuarios tendrán que ser informados cuando se utilicen sistemas de categorización biométrica o de reconocimiento de emociones. Y también los proveedores tendrán que diseñar los sistemas de manera que los contenidos sintéticos de audio, vídeo, texto e imágenes se marquen en un formato legible por máquina y puedan reconocerse como generados o manipulados artificialmente.
La normativa también señala que se impondrán multas a las empresas que no cumplan las normas. Las multas oscilarían entre 35 millones de euros o el 7 % del volumen de negocios anual mundial (si esta cifra es superior) por infracciones relacionadas con aplicaciones de inteligencia artificial prohibidas, 15 millones de euros o el 3 % por incumplimiento de otras obligaciones y 7,5 millones de euros o el 1,5 % por la presentación de información incorrecta. Además, también se prevén otras cuantías para las multas administrativas para las pymes y las empresas emergentes en caso de infracción de la ley de IA.
Reacciones
El acuerdo ha suscitado diferentes reacciones. La presidenta de la Comisión Europa, Ursula von der Leyen, declaró que “la ley de IA lleva los valores europeos a una nueva era. Al centrar la regulación en los riesgos identificables, el acuerdo alcanzado fomentará la innovación responsable en Europa. Al velar por la seguridad y los derechos fundamentales de las personas y las empresas, sostendrá el desarrollo, la implantación y la aceptación de una inteligencia artificial fiable en la UE. Nuestra ley de IA contribuirá de manera sustancial a la formulación de normas y principios mundiales sobre una inteligencia artificial centrada en el ser humano”.
El especialista en ciberseguridad Netskope también se ha pronunciado sobre la norma. Neil Thacker, CISO en EMEA de Netskope, comentó que “la Ley de inteligencia artificial es muy amplia e intenta ofrecer orientación y protección en los diversos ámbitos en los que la IA tendrá un gran impacto en los próximos años. Para las empresas no especializadas, lo primero a lo que deben prestar atención es a las referencias a los sistemas de IA de propósito general (GPAI). Las nuevas leyes incluyen requisitos de transparencia que incluyen la documentación técnica y el cumplimiento de las leyes de derechos de autor de la UE, y cuando esta información no esté disponible, se exigirá a las empresas que controlen el uso de dichos sistemas dentro de su organización. Me satisface especialmente que la legislación incluya requisitos explícitos de resúmenes detallados sobre el contenido utilizado en el entrenamiento del sistema”.