Los paquetes sugeridos por la IA pueden introducir vulnerabilidades invisibles a simple vista

¿Qué peligros añaden ChatGPT o Copilot a la cadena de suministro de software?

©Bigstock

Actualizado 23 | 06 | 2025 12:50

Los asistentes de codificación impulsados por IA, como GitHub, CopilotCursor AI o ChatGPT, han pasado de ser herramientas a convertirse en aliados esenciales para los desarrolladores de software: según una encuesta de Stack Overflow, más del 76% utilizan estos asistentes y para el 80%  suponen  mejoras significativas en productividad gracias a los generadores y editores de código asistidos por IA.

Sin embargo, Check Point® Software Technologies Ltd. (NASDAQ: CHKP), advierte que esta innovación también trae nuevos riesgos, ya que estos asistentes a menudo generan invenciones, es decir, recomendaciones confiadas para usar paquetes de software que, en realidad, no existen. Un estudio reciente realizado por investigadores de la Universidad de Texas en San Antonio, la Universidad de Oklahoma y Virginia Tech revela que los modelos de IA de código abierto generan estos errores en un 21,7% de los casos, frente al 5,2% en los modelos comerciales. En un solo estudio se documentaron más de 200.000 nombres únicos de paquetes que aparentan ser reales, engañando incluso a desarrolladores experimentados.

Además, se ha detectado un fenómeno translingüístico preocupante: los modelos entrenados para generar código en Python a menudo se inventan nombres de paquetes de JavaScript, lo que podría generar confusión y nuevos vectores de ataque en múltiples ecosistemas de software.

Los ciberdelincuentes ya están explotando esta vulnerabilidad mediante una técnica emergente conocida como slopsquatting. A diferencia del tradicional typosquatting (que se basa en errores tipográficos), el slopsquatting aprovecha este error de la IA, registrando de forma anticipada estos paquetes ficticios en repositorios populares como npm o PyPI. Así, cuando los desarrolladores siguen la recomendación de la IA e instalan estos paquetes, introducen inadvertidamente código malicioso en sus entornos.

Un ejemplo destacado es el incidente de “huggingface-cli” en 2023. Tras detectar que la IA sugería repetidamente este paquete inexistente, un investigador de seguridad lo registró en PyPI como prueba inocua. En cuestión de días, miles de desarrolladores, incluyendo equipos de grandes empresas como Alibaba, adoptaron sin saberlo este paquete ficticio en sus proyectos críticos. Aunque este caso no tuvo consecuencias maliciosas, puso de manifiesto la facilidad con la que esta táctica podría explotarse en futuros ataques a gran escala.

En un escenario más agresivo, un único paquete malicioso ampliamente recomendado por la IA podría comprometer sistemas a nivel global, provocando brechas de datospuertas traseras persistentes o interrupciones graves. El uso de pipelines CI/CD automáticos amplifica esta amenaza, permitiendo que el código malicioso pase rápidamente de entornos de desarrollo a producción.

Los mecanismos de seguridad tradicionales no siempre son eficaces frente a estos ataques emergentes, ya que muchos escáneres de dependencias dependen del historial de reputación, lo que les deja ciegos ante paquetes recién registrados.

Cómo mitigar el riesgo de slopsquatting

  • Desconfiar de las recomendaciones de la IA: no instalar paquetes sugeridos sin verificarlos manualmente.
  • Utilizar versiones fijadas, lockfiles y verificación de hashes criptográficos.
  • Mantener listas de confianza o espejos internos de paquetes verificados.
  • Aplicar revisiones entre pares y políticas claras de auditoría para dependencias generadas por IA.

“Estamos ante una nueva clase de amenaza en la cadena de suministro de software”, alerta Eusebio Nieva, director técnico de Check Point Software para España y Portugal. “Los paquetes sugeridos por la IA pueden introducir vulnerabilidades invisibles a simple vista. Es fundamental que los equipos de desarrollo y seguridad adopten un enfoque crítico y riguroso para proteger sus entornos.”

Te puede interesar


Cargando noticia...