Durante el último año, la Inteligencia Artificial Generativa -como ChatGPT- ha ido ganando presencia. Muchas empresas siguen explorando las capacidades que puede brindarles la IA para proteger sus equipos, pero mientras tanto, los ciberdelincuentes están sacando todo su potencial para explotar vulnerabilidades y crear nuevos vectores de ataques.
Un año después del lanzamiento de ChatGPT, se puede observar cómo muchos servicios de ciberdelincuencia ya utilizan de manera habitual la IA generativa, especialmente en el ámbito de la suplantación y la ingeniería social, y están eludiendo las restricciones de ChatGPT para usarlo sin límites y aumentar así la eficacia de sus ataques.
Check Point® Software Technologies Ltd. (NASDAQ: CHKP), ha examinado cuatro ejemplos diferentes de cómo se ha empleado la IA generativa para potenciar los ciberataques:
- Plataforma Black-Hat impulsada con IA para suplantar las redes sociales
Las cuentas falsas en redes sociales representan una amenaza significativa para la ciberseguridad debido a su potencial para llevar a cabo actividades maliciosas, como la suplantación de marcas o la difusión de fake news. Se ha detectado una nueva plataforma en la que se emplea la Inteligencia Artificial para generar contenido en redes sociales y automatizar el mantenimiento de las cuentas falsas. La plataforma puede crear contenido simultáneamente para más de 200 cuentas y hacerlo de manera diaria. Además, promocionan los perfiles y les dan sensación de autenticidad uniéndose a grupos relevantes, dando a “me gusta” a cuentas similares, etc, para poder conseguir más seguidores y usar este tráfico de cuentas para sus fines maliciosos.
- Servicio de deepfakes impulsado por IA
Se ha identificado un nuevo servicio de suplantación que se centra en proporcionar servicios de deepfake de tres formas diferentes:
- Sincronización de labios.
- Sincronización de labios y reemplazo de rostro.
- Doblaje de voz.
El uso de estos servicios se suele emplear para crear perfiles falsos en redes sociales y así promover agendas políticas o productos o también para suplantar identidades de personalidades relevantes para provocar graves daños en su reputación.
- Herramientas y servicios de spam impulsados por IA
Una de las formas más comunes en las que se emplea la IA es en la generación de spam con diversos objetivos como el phishing, obtención de credenciales, distribución de malware, estafas, etc. Los ciberdelincuentes pueden crear textos únicos para cada correo, con lo que consiguen eludir los controles antispam y antiphishing de los servicios de correo electrónico con una tasa éxito del 70%.
- Servicios de verificación KYC
Los servicios de KYC (Know Your Client) son una práctica cada vez más común en las empresas financieras en las que recopilan información detallada de sus clientes para garantizar la seguridad de sus transacciones, mitigar los riesgos y cumplir con las regulaciones. También se emplea para que los clientes puedan recuperar el acceso a sus cuentas como una forma de reestablecer la contraseña. Con el fin de acceder a estos sistemas de forma ilícita, se han creado servicios clandestinos que generan documentación falsa con ayuda de la IA y consiguen unos resultados muy fieles rápidamente.
“El rápido desarrollo de las tecnologías de Inteligencia Artificial supone nuevas oportunidades para la ciberseguridad, pero también retos cada vez más complejos”, afirma Eusebio Nieva, director técnico de Check Point Software para España y Portugal. “Los ciberdelincuentes están empleando la IA para pulir sus técnicas y ahora son capaces de encontrar vulnerabilidades en la red más rápido, suplantar identidades de forma más precisa o automatizar los ataques phishing. Tenemos que seguir sus pasos de cerca y poner la IA al servicio de la ciberseguridad para detectar los malware a tiempo y responder ante sus ataques de forma más efectiva”.
Te puede interesar
- Los 7 pecados digitales de ChatGPT: descubre las amenazas y ataques más utilizados por los ciberdelincuentes
- 5 maneras en las que ChatGPT4 ayuda a la creación de malware y phishing
- El phishing y la difusión de malware, principales riesgos del ChatGPT en el entorno empresarial
- Las 4 estafas de Inteligencia Artificial más comunes que representan un riesgo para las empresas
- La Inteligencia Artificial se cuela en apps como herramienta de los estafadores