Check Point® Software Technologies Ltd. (NASDAQ: CHKP), ha dado ha conocer hoy un nuevo análisis elaborado por Lakera que pone de relieve un cambio significativo en la forma en que los ciberdelincuentes atacan los sistemas de Inteligencia Artificial a medida que estos incorporan capacidades más avanzadas, como el uso de herramientas, la lectura de documentos o la interacción con fuentes externas.
El estudio, basado en un mes de monitorización de tráfico real protegido por Lakera Guard durante el cuarto trimestre de 2025, confirma que los agentes de IA se han convertido en un nuevo objetivo prioritario y que los ciberdelincuentes están adaptando rápidamente sus técnicas para explotar estas funcionalidades emergentes. Según los datos analizados, el objetivo más habitual de los atacantes fue la extracción del prompt del sistema, que representó aproximadamente el 60% de los intentos detectados. Este tipo de información interna permite comprender cómo funciona el modelo, cuáles son sus límites y qué herramientas o flujos utiliza, facilitando ciberataques posteriores más sofisticados.
Junto a la extracción de instrucciones internas, cerca del 20% de los ciberataques analizados buscaban eludir los mecanismos de seguridad de contenido, mientras que un 12% correspondía a intentos exploratorios sin un objetivo inmediato claro, utilizados como fase de reconocimiento. Además, se observaron intentos dirigidos a la filtración de datos confidenciales y a la inyección de código malicioso, especialmente en entornos donde los agentes de IA ya interactúan con información real o sistemas conectados.
Uno de los aspectos más relevantes del análisis es la creciente eficacia de los ciberataques indirectos. A diferencia de las inyecciones directas de instrucciones, los ciberdelincuentes están ocultando órdenes maliciosas dentro de documentos, páginas web o contenidos externos que los agentes procesan como parte de su funcionamiento normal. Este tipo de ciberataques requiere menos intentos para tener éxito y resulta más difícil de detectar, ya que el contenido externo suele tratarse como contexto legítimo y no como una entrada potencialmente perjudicial.
Las técnicas más utilizadas para lograr estos objetivos incluyen escenarios hipotéticos, ocultación de instrucciones camufladas dentro del contenido, juegos de rol y marcos de autoridad falsos, en los que el modelo es inducido a actuar como si estuviera realizando una prueba interna, una simulación educativa o una evaluación de seguridad. En muchos casos, pequeños cambios en el lenguaje, el contexto o el idioma son suficientes para provocar desviaciones en el comportamiento del sistema.
El informe también pone de manifiesto la aparición de ciberataques específicamente diseñados para entornos agentivos, como intentos de acceso a repositorios internos de documentos, instrucciones ocultas en contenidos externos o fragmentos de texto con apariencia de scripts que pueden propagarse a lo largo de flujos automatizados. Estas técnicas reflejan un cambio de enfoque por parte de los ciberdelincuentes, que ya no se limitan a forzar respuestas de texto, sino que buscan influir en todo el proceso de razonamiento y ejecución del agente.
“Estamos entrando en una etapa en la que la seguridad de la IA ya no puede centrarse únicamente en el contenido que genera el modelo”, explica David Haber, CEO de Lakera. “Cuando un sistema empieza a leer documentos, consultar fuentes externas o ejecutar acciones, cada uno de esos pasos se convierte en una posible superficie de ataque. Los datos observados por Lakera muestran que los ciberdelincuentes lo han entendido perfectamente y están actuando en consecuencia”.
De cara a 2026, Check Point Software subraya que la protección de los sistemas de IA deberá extenderse a todo el ciclo de funcionamiento del agente, incluyendo las fuentes externas, las herramientas conectadas y la forma en que se interpretan y combinan los distintos contextos. La seguridad deberá ser preventiva y estar integrada desde el diseño, con controles específicos frente a inyecciones indirectas, filtración de información sensible y uso indebido de capacidades automatizadas.
El análisis refuerza la necesidad de adoptar enfoques de seguridad alineados con los principales marcos internacionales, como el OWASP Top 10 para aplicaciones basadas en modelos de lenguaje, y de tratar los sistemas de IA agentiva como componentes críticos dentro de la arquitectura digital de las organizaciones.




