Check Point® Software Technologies Ltd. (NASDAQ: CHKP), alerta sobre una nueva tendencia en el uso de la inteligencia artificial en entornos corporativos: la aparición de ataques que no dependen de malware ni exploits tradicionales, sino de simples instrucciones formuladas en lenguaje natural.
Este nuevo tipo de amenaza quedó expuesto en el ataque Echoleak, donde Microsoft 365 Copilot, un agente basado en un modelo de lenguaje de gran escala (LLM), no fue comprometido por un fallo técnico, sino por un mensaje disfrazado de dato legítimo. El agente de IA actuó exactamente como fue diseñado: obedeciendo una orden expresada en lenguaje natural, sin detectar su carácter malicioso. El problema no fue un error, sino su obediencia.
A diferencia de las vulnerabilidades clásicas, que se aprovechan de errores de código, estas nuevas amenazas explotan el modo en que los LLM interpretan la intención del usuario. Prompts incrustados en archivos, mensajes o formularios pueden activar acciones sensibles —como extraer datos o alterar configuraciones— sin intervención humana adicional. La amenaza está en la ambigüedad del lenguaje, no en la tecnología subyacente.
Este fenómeno recuerda a los primeros hallazgos con asistentes como Siri o Alexa, donde comandos de voz podían ser ejecutados sin autenticación. Hoy, los riesgos se multiplican: los agentes de IA modernos están profundamente integrados en sistemas operativos, clientes de correo, suites ofimáticas y accesos a APIs corporativas. Basta una sola instrucción maliciosa para desencadenar una fuga de información.
El problema se agrava por la velocidad de adopción. Según el AI Security Report de Check Point Software:
- El 62% de los responsables de ciberseguridad (CISOs) teme ser considerado personalmente responsable de una brecha vinculada a IA.
- Casi el 40% de las empresas detecta un uso interno no autorizado de estas herramientas.
- El 20% de los grupos cibercriminales ya incorpora IA en sus tácticas de ataque.
Aunque algunas soluciones actuales emplean sistemas de detección o modelos de supervisión, estas defensas pueden ser eludidas con facilidad mediante técnicas como la fragmentación de instrucciones, el uso de frases ambiguas o la inclusión de comandos en otros idiomas. En el caso Echoleak, estas medidas fueron insuficientes.
Frente a este escenario, los expertos recomiendan una estrategia centrada en la detección temprana y la contención rápida. Algunas medidas clave incluyen:
- Monitorizar la actividad de los agentes de IA en tiempo real, incluyendo el registro de todos los prompts y respuestas.
- Aplicar principios estrictos de mínimo privilegio: los agentes deben tener acceso solo a lo estrictamente necesario.
- Añadir mecanismos de verificación para operaciones sensibles, como transferencias de datos o cambios en permisos.
- Detectar patrones de lenguaje anómalos o adversariales que puedan camuflar instrucciones encubiertas.
Además, antes de desplegar soluciones basadas en IA, es imprescindible realizar una auditoría de accesos, limitar el alcance de actuación de los agentes y realizar simulaciones internas con prompts diseñados para eludir controles. La planificación debe asumir que los filtros pueden ser superados, y diseñar las defensas desde esa premisa.
“La conversación se ha convertido en el nuevo vector de ataque. Ya no basta con proteger el código; debemos proteger también el lenguaje, la intención y el contexto”, advierte Radoslaw Madej, responsable del equipo de investigación de vulnerabilidades.