El servicio de Inteligencia de Kaspersky Digital Footprint ha encontrado casi 3.000 publicaciones en la darkweb que tratan principalmente sobre el uso de ChatGPT y otros modelos de lenguaje a gran escala (LLM, por sus siglas en inglés) para actividades ilegales. Los ciberdelincuentes están explorando esquemas, desde la creación de alternativas del chatbot hasta el jailbreaking. Las cuentas de ChatGPT robadas y los servicios que ofrecen su creación automatizada en masa también están inundando los canales de la dark web, alcanzando otras 3.000 publicaciones.
En 2023, el servicio de Inteligencia de Kaspersky Digital Footprint descubrió casi 3.000 posts en la dark web, en los que se hablaba del uso de ChatGPT con fines ilegales o de herramientas que se basan en tecnologías de IA. Las conversaciones alcanzaron su punto álgido en marzo, según afirman desde la compañía. “Los actores de amenazas están explorando activamente varios esquemas para implementar ChatGPT e IA. Los temas incluyen con frecuencia el desarrollo de malware y otros tipos de uso ilícito de modelos lingüísticos, como el procesamiento de datos de usuario robados o el análisis sintáctico de archivos de dispositivos infectados”, explica Alisa Kulishenko, analista de Kaspersky Digital Footprint.
Aparte de los chatbot y la IA mencionados, se está prestando mucha atención a proyectos como XXXGPT o FraudGPT, entre otros. Estos modelos lingüísticos se comercializan en la dark web como alternativas a ChatGPT, presumiendo de funcionalidad adicional y ausencia de las limitaciones originales.“La popularidad de las herramientas de IA ha llevado a la integración de respuestas automáticas de ChatGPT o sus equivalentes en algunos foros de ciberdelincuentes. Además, tienden a compartir jailbreaks a través de diversos canales de la dark web y a idear formas de explotar herramientas legítimas, como las de pentesting, basadas en modelos con fines maliciosos”, añade Kulishenko.
Se venden cuentas robadas de ChatGPT
Otra amenaza para usuarios y empresas es el mercado de cuentas de la versión de pago de ChatGPT. En 2023, se identificaron otros 3.000 mensajes (aparte de los mencionados anteriormente) que anunciaban la venta de cuentas de ChatGPT en la dark web y en canales de Telegram. Estos mensajes distribuyen cuentas robadas o promocionan servicios de registro automático que crean cuentas de forma masiva bajo petición.
“Aunque las herramientas de IA en sí mismas no son peligrosas, los ciberdelincuentes están tratando de idear formas eficientes de utilizar modelos lingüísticos, alimentando así una tendencia de reducción de la barrera de entrada a la ciberdelincuencia y, en algunos casos, aumentando el número de ciberataques. Sin embargo, es poco probable que la IA generativa y los chatbots revolucionen el panorama de los ataques, al menos en 2024, puesto que los ciberataques a menudo implican defensas automatizadas. No obstante, mantenerse informado sobre las actividades de los atacantes es crucial para ir por delante de los adversarios en términos de ciberseguridad corporativa”, concluye la analista.
Te puede interesar
- Los 7 pecados digitales de ChatGPT: descubre las amenazas y ataques más utilizados por los ciberdelincuentes
- ChatGPT, correos electrónicos y códigos maliciosos
- Ciberatacantes se hacen pasar por ChatGPT para robar credenciales de redes sociales
- 5 maneras en las que ChatGPT4 ayuda a la creación de malware y phishing