Se trata de la primera ley mundial que intenta abordar el riesgo que puede introducir la IA

El Parlamento Europeo aprueba la primera Ley de IA del mundo: un nuevo horizonte para la ciberseguridad y la innovación tecnológica en Europa

©Bigstock

Actualizado 14 | 03 | 2024 10:44

Ley Inteligencia Artificial

La nueva Ley de IA aprobada recientemente por el Parlamento Europeo en temas de ciberseguridad marca un hito en la regulación global de la Inteligencia Artificial, estableciendo un marco sin precedentes que impacta significativamente en la ciberseguridad y el desarrollo tecnológico.

“Se trata de la primera ley mundial que intenta abordar el riesgo que puede introducir la IA y mitigar el peligro de que sus aplicaciones vulneren los Derechos Humanos o perpetúen los prejuicios. Tanto si se trata de escaneo de un currículum con sesgo de género, como de vigilancia omnipresente en el espacio público con cámaras impulsadas por IA, o de análisis invasivos de datos médicos que afectan a un seguro de salud, esta Ley de IA de la UE pretende establecer límites claros para su despliegue, de modo que los vendedores y desarrolladores dispongan de algunas directrices y límites. De este modo, los «buenos» podrán ver el límite bien marcado y disponer de acceso y herramientas para perseguir a los que vayan en contra de ella”, destaca Peter Sandkuijl, vicepresidente del departamento de ingeniería de EMEA de Check Point.

Esta ley, que fue creada en base a un acuerdo temporal el pasado mes de diciembre, es la primera ley del mundo en su campo. Los principales objetivos son: garantizar la seguridad y los derechos de los ciudadanos de la UE y promover la inversión y la innovación en IA. Uno de sus aspectos más relevantes es que, dado el rápido desarrollo de tecnologías como ChatGPT y el establecimiento de estándares de transparencia y protección de derechos de autor, muestra la importancia de adaptarse a sistemas que aún no son imaginables en el futuro. Teniendo en cuenta estas nuevas regulaciones, a Check Point Software le gustaría destacar

Claves de la legislación de la UE sobre Inteligencia Artificial en relación con la ciberseguridad

  • Directrices de desarrollo y despliegue más estrictas: los desarrolladores e implantadores de IA tendrán que seguir unas directrices estrictas, garantizando que los sistemas de IA se desarrollen pensando en la seguridad. Esto significa incorporar medidas de ciberseguridad desde el principio, centrarse en prácticas de codificación seguras y garantizar que los sistemas de IA sean resistentes a los ataques.
  • Responsabilidad en incidentes de seguridad: es probable que la Ley incluya disposiciones para responsabilizar a las empresas por brechas de seguridad que involucren sistemas de IA. Esto requeriría protocolos de respuesta ante incidentes más estrictos y que los sistemas de IA cuenten con mecanismos avanzados para detectar y reaccionar ante incidentes de ciberseguridad.
  • Prevención del uso malintencionado de la IA: la Ley busca evitar el uso de la IA con fines malintencionados, como la creación de deepfakes o la automatización de ciberataques. Regulando ciertos usos de la IA. Además, contribuye a que haya una estrategia de ciberseguridad más amplia que reduce el riesgo de que se utilice como herramienta en ciberguerra y cibercrimen.
  • Mitigación de sesgos y discriminación: al tratar los riesgos de sesgo y discriminación en los sistemas de IA, la Ley también beneficia indirectamente a la ciberseguridad. Los sistemas que son justos e imparciales tienen menos probabilidades de ser explotados a través de sus vulnerabilidades. Al abordar los riesgos de parcialidad y discriminación en los sistemas de IA, la Ley contribuye indirectamente a la ciberseguridad. Garantizar que los sistemas de IA se entrenen con conjuntos de datos diversos y representativos puede reducir el riesgo de ataques que exploten procesos de toma de decisiones sesgados.
  • Más transparencia: exigencia de una mayor transparencia en las operaciones de IA, especialmente para las de alto riesgo. Esto podría significar una divulgación más detallada de los datos utilizados para entrenar los sistemas de IA, los procesos de toma de decisiones de la IA y las medidas adoptadas para garantizar la privacidad y la seguridad. La transparencia ayuda a identificar vulnerabilidades y a mitigar posibles amenazas.
  • Auditorías de certificación y conformidad: los sistemas de IA de alto riesgo tendrán que someterse a rigurosas pruebas y certificaciones que garanticen que cumplen las normas de seguridad de la UE, incluida la ciberseguridad. Las auditorías de conformidad garantizarán además que los sistemas de IA se adhieran continuamente a estas normas a lo largo de su ciclo de vida.
  • Fomento de la investigación y colaboración: la ley promueve la investigación y colaboración en IA y ciberseguridad, apoyando el desarrollo de tecnologías y estrategias para proteger contra amenazas emergentes.

“La transparencia se considera un principio básico del planteamiento de la UE, especialmente en lo que respecta a la IA generativa. Al exigir transparencia en el proceso de formación de la IA, esta legislación pretende sacar a la luz posibles sesgos y errores cometidos por la IA antes de que se acepten como verdad. No olvidemos que esta novedosa tecnología no siempre es correcta; al contrario, comete más errores de los que permitiríamos a cualquier tecnología actual, por lo que la transparencia se convierte en una herramienta fundamental para mitigar sus defectos”, afirma Peter Sandkuijl. “La atención inicial recaerá en las cuantiosas multas impuestas, sin embargo, ese no debe ser el foco principal; a medida que las leyes sean aceptadas, seguirán siendo probadas y juzgadas en los tribunales de justicia, sentando precedentes para futuros infractores. Tenemos que entender que esto tardará en materializarse, lo que en realidad puede ser más útil, aunque no sea un objetivo final”, concluye.

Te puede interesar


Cargando noticia...