Check Point® Software Technologies Ltd. (NASDAQ: CHKP), ha detectado que los ciberdelincuentes han incrementado el uso de los bots de Telegram con el objetivo de crear una nueva metodología que logre saltarse las restricciones de ChatGPT y otras herramientas basadas en OpenAI. Su principal objetivo es poder utilizar estas capacidades para la depuración y mejora de los códigos maliciosos.
Consciente de esta problemática, OpenAI ha actualizado su política de contenidos, creando barreras y restricciones para tratar de detener la creación de contenidos maliciosos. Se han establecido varias restricciones dentro de la interfaz de usuario de ChatGPT para evitar su uso inapropiado; por ejemplo, a partir de ahora la IA no generará respuestas para aquellas peticiones con alusiones concretas a la creación de malware o correos electrónicos de phishing que traten de hacerse pasar por un banco u otras entidades.
Sin embargo, los ciberdelincuentes ya están trabajando para sortear las restricciones de ChatGPT. Según ha detectado Check Point Research, actualmente se ha generado mucha actividad en los foros clandestinos, en los que se habla sobre cómo utilizar la API de OpenAI para saltarse las barreras y limitaciones de estas herramientas, destacando un modelo que se centra en la creación y distribución de bots de Telegram que emulan la API de ChatGPT.
Concretamente, se han detectado diversos anuncios y modelos de negocio que garantizan una herramienta maliciosa con la capacidad de realizar hasta 20 premisas de manera gratuita, ampliables por un coste reducido de tan sólo 5,5 dólares por cada 100 nuevas consultas. Un coste prácticamente nulo en comparación con las altas ganancias que se obtienen de este tipo de ciberataques.
Figura 1. Ejemplo de un email de phishing creado a través de un bot de Telegram utilizando la API de OpenAI
Figura 2. Ejemplo de la creación de malware a través de un bot de Telegram utilizando la API de OpenAI
Los ciberdelincuentes siguen explorando cómo utilizar ChatGPT para desarrollarmalware y correos electrónicos de phishing. A medida que mejoran los controles que implementa ChatGPT, encuentran nuevas formas de utilizar los modelos de OpenAI.
“La versión actual de la API de OpenAI, disponible para su usoen aplicaciones externas, tiene muy pocas medidas de control. Como resultado, permite crear contenido malicioso como correos electrónicos de phishing y código de malware sin las limitaciones o barreras que ChatGPT ha establecido en su interfaz de usuario” comenta Eusebio Nieva, director técnico de Check Point Software para España y Portugal.