Check Point® Software Technologies Ltd. (NASDAQ: CHKP), alerta del peligro que suponen los deepfakes en la actualidad y de cómo han dejado de ser simples montajes para convertirse en una de las amenazas más inquietantes del panorama actual de la ciberseguridad.
Así lo pone de manifiesto el IA Security Report 2025 elaborado por Check Point Research, que advierte sobre el grado de madurez que ha alcanzado esta tecnología y su papel fundamental en campañas de fraude, suplantación de identidad y ataques de ingeniería social a gran escala.
De vídeos editados a agentes autónomos
Lo que comenzó como una técnica rudimentaria para manipular vídeos ha evolucionado hacia sistemas completamente automatizados, capaces de interactuar con víctimas en tiempo real. El informe introduce el concepto de “Deepfake Maturity Spectrum”, que clasifica la evolución de estos ataques en tres niveles: generación offline (contenido pregrabado), generación en tiempo real (modulación de voz e imagen en directo) y generación autónoma, en la que agentes de IA son capaces de gestionar varias conversaciones de manera simultánea en múltiples plataformas.
Este nivel de sofisticación convierte a los deepfakes en una herramienta altamente eficaz para atacar a individuos y empresas, sin necesidad de intervención humana directa. Desde entrevistas de trabajo falsas hasta videollamadas suplantando a directivos o responsables financieros, los casos documentados demuestran cómo esta tecnología está siendo utilizada con fines delictivos cada vez más complejos.
Ciberfraude en cifras
El impacto económico de los deepfakes ya es tangible. Solo en dos casos recientes, en Reino Unido y Canadá, se han registrado pérdidas superiores a los 35 millones de dólares por fraudes basados en vídeos generados por IA. Pero los ataques no se limitan al vídeo: las voces sintéticas creadas con Inteligencia Artificial ya se utilizan con frecuencia en casos de sextorsión, falsas situaciones de rehenes o suplantación de CEOs. En Italia, los atacantes llegaron incluso a imitar la voz del ministro de Defensa en una llamada telefónica para intentar extorsionar a contactos de alto nivel.
Con respecto a las herramientas de clonación de voz y manipulación facial ya están disponibles en mercados clandestinos por precios asequibles. Sistemas de telefonía asistidos por IA, que permiten mantener conversaciones simultáneas en varios idiomas sin intervención humana, se comercializan por unos 20.000 dólares. Estas tecnologías, hasta hace poco reservadas a ciberdelincuentes con experiencia, se han democratizado y puesto al alcance de atacantes con bajos conocimientos técnicos.
Un nuevo kit de herramientas criminales
Este informe de Check Point Research detalla cómo la automatización ha cambiado las reglas del juego. Herramientas como ElevenLabs permiten clonar una voz apoyándose en menos de 10 minutos de audio, y plugins de cambio de rostro en videollamadas se ofrecen por apenas unos cientos de dólares. Plataformas como GoMailPro, un paquete de phishing impulsado por IA, se anuncian abiertamente en la dark web y en Telegram por 500 dólares mensuales, incluyendo soporte con ChatGPT.
Además, los llamados “Business Invoice Swappers” utilizan IA para escanear automáticamente bandejas de entrada y manipular facturas con el objetivo de desviar fondos. Esta automatización reduce al mínimo la intervención humana, aumentando la escala y la efectividad de los ataques.
El fin de las pruebas visuales y auditivas
El FBI ya ha advertido que las imágenes, vídeos y voces generadas por IA están erosionando las formas tradicionales de verificación. La capacidad de los deepfakes para imitar a personas reales con una precisión prácticamente indistinguible supone un reto para los equipos de seguridad, que ya no pueden confiar en señales visuales ni en la propia intuición.
En este nuevo contexto, las empresas deben prepararse para un entorno donde es difícil diferenciar lo real delo falso. La capacidad de engañar en tiempo real convierte a los deepfakes en un riesgo operativo para todos los sectores.
Los deepfakes ya no son el futuro: son el presente
“La frontera entre la realidad digital y la ficción ha desaparecido”, afirma Eusebio Nieva, director técnico de Check Point Software para España y Portugal. “Las empresas que no se preparen para estas amenazas corren el riesgo de convertirse en víctimas de ataques diseñados por Inteligencia Artificial, escalables y difíciles de detectar”.
El IA Security Report 2025 ofrece un análisis detallado sobre las últimas tendencias en amenazas generadas por IA, incluyendo los riesgos emergentes de los deepfakes.