En diciembre de 2023, el Parlamento de la Unión Europea y el Consejo de la UE alcanzaron un acuerdo provisional sobre la Ley de Inteligencia Artificial de la UE. Esto prepara el escenario para finalizar e implementar la ley, que utiliza un enfoque escalonado para la Inteligencia Artificial en el que los requisitos se basan en el nivel de riesgo que plantea un sistema.
La Ley de Inteligencia Artificial de la UE sería la primera regulación de amplio alcance sobre Inteligencia Artificial de este tipo. A continuación, analizamos el marco de la Ley de Inteligencia Artificial de la UE y cómo podría afectar a las empresas.
¿Qué es la Ley de Inteligencia Artificial de la UE?
Según un comunicado de prensa del Parlamento Europeo, la Ley de Inteligencia Artificial de la UE “tiene como objetivo garantizar que los derechos fundamentales, la democracia, el estado de derecho y la sostenibilidad ambiental estén protegidos contra la Inteligencia Artificial de alto riesgo, al tiempo que impulsa la innovación y convierte a Europa en un líder en este campo”.
Parece una tarea difícil. Para explicarlo un poco, la Ley de Inteligencia Artificial de la UE establecería límites a lo que los sistemas de Inteligencia Artificial pueden hacer en función del nivel de riesgo que presentan. La ley prohibiría ciertas actividades de Inteligencia Artificial, como los sistemas utilizados para explotar las vulnerabilidades de las personas, como la edad, la discapacidad o la situación social o económica. Para otros niveles, los sistemas de Inteligencia Artificial estarían sujetos a requisitos de transparencia para que las personas sepan que están tratando con una máquina.
¿A quién afecta la Ley de Inteligencia Artificial de la UE?
Hay múltiples respuestas a esta pregunta.
En términos más generales, la Ley de Inteligencia Artificial de la UE afectará a los ciudadanos de la UE en general. Los defensores de la ley están promocionando sus salvaguardias para los usuarios. Por ejemplo, en el comunicado de prensa del Parlamento, el ponente Dragos Tudorache afirmó: “La UE es la primera en el mundo en establecer una regulación sólida sobre la Inteligencia Artificial, guiando su desarrollo y evolución en una dirección centrada en el ser humano”.
Más específicamente, la ley afectará a los sistemas de Inteligencia Artificial, incluidas las empresas que los crean, las empresas que los incorporan a sus productos y servicios, etc. Además, ciertas obligaciones se aplican a industrias específicas, como los sectores bancario y de seguros y los sistemas de Inteligencia Artificial utilizados para influir en el resultado de las elecciones. Sin embargo, en un nivel más amplio, parte de lo notable de la ley es su amplitud, ya que se aplicaría a los sistemas de Inteligencia Artificial en todos los sectores industriales.
En tercer lugar, es importante analizar la Ley de Inteligencia Artificial de la UE desde el punto de vista de quién debe cumplirla. Naturalmente, esto incluye empresas dentro de la UE que proporcionan sistemas de Inteligencia Artificial. Pero la ley también se aplicaría a empresas fuera de la UE que colocan sistemas de Inteligencia Artificial en el mercado de la UE y a los proveedores e “implementadores” de sistemas de Inteligencia Artificial fuera de la UE si la producción del sistema se utiliza en la UE. Es decir, los efectos de la Ley de Inteligencia Artificial de la UE se aplicarán mucho más allá de la UE.
¿Cuáles son los diferentes niveles de riesgo establecidos en la Ley de Inteligencia Artificial de la UE y qué significan para los negocios?
La estructura de la Ley de Inteligencia Artificial de la UE se basa en cuatro niveles de riesgo: riesgo inaceptable, alto, limitado y mínimo. Cada nivel incluye sus responsabilidades correspondientes. La ley cubriría una variedad de tipos de riesgos, en áreas que van desde el medio ambiente hasta la democracia. Las empresas deben considerar si sus actividades encajan en una de estas categorías para determinar los próximos pasos:
- Mínimo: parece que muchas empresas que utilizan o proporcionan sistemas de Inteligencia Artificial pueden no tener obligaciones según la ley. Según un comunicado de prensa del Parlamento, “La gran mayoría de los sistemas de Inteligencia Artificial entran en la categoría de riesgo mínimo”. Estos tipos de sistemas de Inteligencia Artificial incluyen filtros de spam, sistemas de recomendación y similares. Si bien los sistemas de bajo riesgo obtienen un “pase libre”, pueden estar sujetos a medidas voluntarias como códigos de conducta.
- Limitado: el riesgo de transparencia limitado o específico parece ser una categoría general vaga para sistemas como los chatbots que interactúan con humanos, algunos sistemas de reconocimiento de emociones y categorización biométrica, y falsificaciones profundas. (Ten en cuenta, sin embargo, que a los sistemas de reconocimiento de emociones y categorización biométrica también se les puede asignar un nivel de riesgo más alto, dependiendo del uso). Los sistemas en esta categoría estarían sujetos a ciertas obligaciones de transparencia para que las personas sepan que están interactuando con una máquina y/o o que estos sistemas están siendo utilizados.
- Alto: Los sistemas de Inteligencia Artificial de alto riesgo se clasifican “debido a su importante daño potencial a la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el estado de derecho”. Los sistemas de alto riesgo incluyen sistemas utilizados como componentes de seguridad o según la legislación de armonización de seguridad y salud de la UE, así como sistemas utilizados en áreas específicas: biometría remota; infraestructura crítica; educación y pruebas vocacionales; empleo, gestión de trabajadores y acceso al autoempleo; acceso al disfrute de servicios privados esenciales y de servicios y beneficios públicos; cumplimiento de la ley; gestión de migración, asilo y control de fronteras; y administración de justicia y procesos democráticos. Los sistemas de la categoría de alto riesgo están sujetos a una serie de requisitos, por ejemplo, mitigación de riesgos, documentación detallada, supervisión humana, ciberseguridad, etc.
- Riesgo inaceptable: finalmente, la Ley de Inteligencia Artificial de la UE prohibiría una serie de actividades específicas de los sistemas de Inteligencia Artificial (con algunas exenciones policiales):
– Categorización biométrica utilizando características sensibles como creencias políticas, religiosas, filosóficas, orientación sexual y raza.
– Extracción no dirigida de imágenes faciales de Internet o secuencias de televisión con subtítulos para crear bases de datos de reconocimiento facial.
– Reconocimiento de emociones en el lugar de trabajo y en instituciones educativas.
– Puntuación social basada en comportamiento social o características personales.
– Sistemas de Inteligencia Artificial que “manipulan el comportamiento humano para eludir su libre albedrío”.
– La Inteligencia Artificial que explote las vulnerabilidades de las personas (por edad, discapacidad, situación social o económica).
En particular, la Ley de Inteligencia Artificial de la UE no afectará a los sistemas de Inteligencia Artificial utilizados únicamente con fines militares o de defensa, o de investigación e innovación. Tampoco se aplica a personas que utilizan la Inteligencia Artificial por motivos no profesionales.
¿Cómo reformará la Ley de Inteligencia Artificial de la UE los derechos de propiedad intelectual?
El uso de material protegido por derechos de autor para entrenar la Inteligencia Artificial ha sido un tema de alto perfil últimamente, con varias demandas muy publicitadas de artistas y escritores contra empresas de Inteligencia Artificial. La Ley de Inteligencia Artificial de la UE aborda esta cuestión. La Inteligencia Artificial de propósito general (“GPAI”) debe cumplir con medidas que incluyen seguir la ley de derechos de autor de la UE y proporcionar resúmenes detallados sobre el contenido que utiliza para los materiales de capacitación. Para los propietarios de derechos de autor que han optado por no permitir que sus datos estén disponibles para la extracción de textos y datos, GPAI también debe cumplir con la opción de exclusión.
Otro requisito de transparencia que podría tener implicaciones para la propiedad intelectual es el requisito de etiquetar las falsificaciones profundas.
Por supuesto, cualquier ley radical que afecte a la tecnología también afectará los derechos de propiedad intelectual y el desarrollo. Esto puede incluir todo, desde requisitos sobre divulgaciones y contratos sobre sistemas y procesos hasta las condiciones de prueba para la Inteligencia Artificial de alto riesgo.
¿Cuáles son las sanciones según la Ley de Inteligencia Artificial de la UE?
Las sanciones por incumplimiento pueden variar desde 7,5 millones de euros o el 1,5% de la facturación global hasta 35 millones de euros o el 7% de la facturación global, dependiendo de la infracción y el tamaño de la empresa.
¿Cuándo entrará en vigor la Ley de Inteligencia Artificial de la UE?
Con el reciente acuerdo provisional, el proceso parece estar a punto de completarse. Algunos sospechan que la ley podría estar finalizada para las elecciones parlamentarias de junio de 2024.
Se han filtrado online dos versiones de una copia no oficial del texto de la ley. Los informes sobre la copia no oficial filtrada afirman que la ley entrará en vigor el vigésimo día después de su publicación en el Diario Oficial de la UE. Sin embargo, sus disposiciones no serían aplicables hasta algún tiempo después. Según se informa, las prohibiciones de actividades de “riesgo inaceptable” serían aplicables seis meses después de que la ley entre en vigor, pero pueden ser hasta treinta y seis meses para los requisitos para los sistemas de Inteligencia Artificial de alto riesgo discutidos anteriormente.
Cómo aprovechar la Inteligencia Artificial para proteger la propiedad intelectual online
La Ley de Inteligencia Artificial de la UE se propuso por primera vez en 2021. Ahora que tenemos una idea más clara de cómo será la ley cuando esté finalizada, y posiblemente incluso un cronograma, es hora de que las empresas consideren los sistemas de Inteligencia Artificial que utilizan y ofrecen.
La Inteligencia Artificial y la propiedad intelectual a menudo están entrelazadas, y la creciente prevalencia de los sistemas de Inteligencia Artificial pone de relieve los riesgos potenciales para los propietarios de propiedad intelectual. La Inteligencia Artificial también puede ser una herramienta para proteger la propiedad intelectual, con sistemas de Inteligencia Artificial disponibles para ayudar en la detección y aplicación de las infracciones.