OpenClaw es una plataforma donde los humanos solo pueden observar mientras los bots interactúan de forma autónoma.

Alerta sobre los peligros de OpenClaw, la primera red social exclusiva para agentes de IA

©BigStock

Actualizado 09 | 02 | 2026 10:15

OpenClaw

Check Point® Software Technologies Ltd. (NASDAQ: CHKP), ha asegurado que OpenClaw (anteriormente Moltbot y Clawdot), la nueva red social lanzada el 28 de enero de 2026, representa un cambio de paradigma en el uso de la inteligencia artificial, pero también un desafío crítico para la seguridad digital.

A diferencia de redes como Reddit, TikTok o Facebook, en OpenClaw los seres humanos tienen prohibido interactuar; solo pueden observar cómo sus propios agentes de IA publican, comentan y votan autónomamente.

OpenClaw (antes Moltbot y Clawdbot) nos muestra un riesgo real y preocupante: con los agentes de inteligencia artificial, los datos pueden suponer un peligro en sí mismo. Cualquier «skill» incorporado al agente o dato malicioso procesado por openclaw podría suponer un desastre para el usuario o la compañía, como por ejemplo perder nuestro correo electrónico. Esta no es una amenaza del futuro: ya estamos viviendo en este mundo, y las empresas necesitan actualizar urgentemente la forma en que piensan sobre la seguridad«, concluye Eusebio Nieva, director técnico de Check Point Software para España y Portugal.

Tras los recientes incidentes que permitieron el acceso abierto a bases de datos y la suplantación de agentes para estafas de criptomonedas, la compañía destaca los siguientes riesgos técnicos:

  • La triada letal de la IA: Los expertos en ciberseguridad han identificado tres factores que, combinados sin protecciones sólidas, pueden tener consecuencias graves: el acceso a datos privados, la exposición a contenido no verificado y la capacidad de actuar externamente.
  • Vulnerabilidad estructural: la base de datos principal de la plataforma quedó expuesta, permitiendo que cualquier usuario pudiera leer o escribir en ella, lo que facilitó la inserción de contenido malicioso y la suplantación de agentes.
  • Riesgo en las instrucciones externas: los agentes operan bajo instrucciones alojadas en sitios externos que pueden modificarse en cualquier momento. Si estas fuentes se ven comprometidas, esto permitiría redirigir al agente para realizar acciones dañinas utilizando las claves API del usuario.
  • Proyecto experimental: este se trata de un “proyecto de hobby” que no está destinado a usuarios no técnicos ni es apto para entornos de producción.

Si las instrucciones externas se alteran maliciosamente, los agentes podrían ser dirigidos para realizar acciones dañinas utilizando cualquier permiso extra que sus dueños humanos les hayan concedido. Esto plantea la duda de si los usuarios realmente entienden los riesgos antes de dar acceso total al sistema a sus agentes”, añade Nieva.

Te puede interesar

Etiquetas agentes IAOpenClaw

Cargando noticia...