La Inteligencia Artificial plantea nuevos desafíos de seguridad y privacidad

Alerta sobre los riesgos de seguridad del nuevo navegador ChatGPT Atlas

©OpenAI

Actualizado 28 | 10 | 2025 09:45

ChatGPT Atlas

Check Point® Software Technologies Ltd. (NASDAQ: CHKP), señala que el nuevo ChatGPT Atlas (avegador de OpenAI) representa el primer paso hacia una nueva generación de sistemas operativos impulsados por Inteligencia Artificial (IA). Esta evolución redefine por completo la forma en la que las personas interactúan con los equipos de trabajo, las aplicaciones y la red, pero también amplía considerablemente la superficie de ataque.

Atlas anticipa una era en la que las interfaces tradicionales basadas en aplicaciones darán paso a sistemas gobernados por IA. En lugar de abrir programas, los usuarios describirán lo que desean realizar, y la IA ejecutará automáticamente las acciones necesarias en segundo plano.

Aunque esta transformación promete una experiencia más eficiente, también plantea un reto urgente: garantizar la seguridad antes de que su adopción masiva introduzca vulnerabilidades sistémicas

Límites tradicionales que se disuelven

En el modelo clásico, las aplicaciones funcionan de forma aislada, los sitios web no comparten información entre sí y cada acción requiere aprobación del usuario. En cambio, la informática nativa de IA elimina esas fronteras ya que un mismo asistente puede acceder simultáneamente a sesiones autenticadas de banca, correo, salud o sistemas corporativos.

Dado que los navegadores ya constituyen una de las superficies de ataque más explotadas, la incorporación de IA amplía de forma significativa el riesgo de exposición de datos.

Órdenes invisibles: un nuevo vector de ataque

Check Point Research señala una amenaza emergente denominada inyección indirecta de prompts. Mediante esta técnica, los ciberdelincuentes insertan instrucciones ocultas en el contenido de una página web. Aunque invisibles para los usuarios, las IA las leen e interpretan como órdenes válidas. Esto puede provocar que el asistente ejecute acciones no autorizadas, como el robo de correos electrónicos, credenciales o calendarios, sin que el usuario lo perciba. Al actuar con los mismos privilegios que la persona autenticada, la IA convierte en ineficaces las barreras de seguridad tradicionales como la política del mismo origen.

Privacidad y exposición de datos

Para ofrecer asistencia inteligente, los navegadores con IA necesitan un acceso profundo al contexto del usuario: historial, documentos, comunicaciones o comportamiento. Cuanto mayor es el contexto, más precisas son sus respuestas, pero también más sensible es la información procesada. Esto incluye datos financieros, médicos o empresariales que pueden convertirse, de forma involuntaria, en material de entrenamiento para la IA. El resultado es un entorno donde la comodidad y la seguridad compiten constantemente, y donde la línea entre asistencia y vigilancia puede diluirse.

“ChatGPT Atlas marca un salto en la integración de la IA con la navegación, pero también pone a prueba los límites de la privacidad y la confianza digital”, señala Eusebio Nieva, director técnico de Check Point Software para España y Portugal. “Estas herramientas aprenden del comportamiento del usuario y guardan datos sensibles; sin controles claros y transparencia, lo que hoy parece comodidad puede convertirse en un nuevo riesgo de seguridad”.

Recomendaciones

Los expertos en ciberseguridad subrayan que la transición hacia interfaces nativas de IA es imparable, pero la seguridad debe evolucionar en paralelo. Para mitigar los riesgos, el sector tecnológico debe aplicar principios de seguridad desde el diseño, como:

  • Aislar las órdenes del usuario del contenido web no confiable.
  • Exigir confirmación explícita en todas las acciones sensibles.
  • Establecer controles de permisos granulares para las capacidades de IA.

Las empresas, por su parte, deben considerar estos navegadores como tecnologías de alto riesgo que requieren:

  • Supervisión reforzada y análisis continuos.
  • Políticas claras de uso.
  • Restricciones temporales en el acceso a datos sensibles hasta que las medidas de protección maduren.

Asimismo, los organismos reguladores deberán desarrollar marcos normativos específicos para esta nueva generación de sistemas, incluyendo transparencia en el tratamiento de datos, notificación de incidentes y definición de responsabilidades cuando la IA actúe de forma autónoma

Te puede interesar


Cargando noticia...