De momento la sociedad no percibe los deepfakes como una amenaza porque hay pocos casos en los que se hayan usado para actividades maliciosas

El deepfake llega a la voz: los ciberdelincuentes ya tienen otra herramienta para estafar

©Bigstock

Actualizado 26 | 12 | 2023 10:23

Deepfakes detectar

Los Beatles han deleitado a fans de todo el mundo con el lanzamiento de una nueva canción. La Inteligencia Artificial (IA) ha hecho posible rescatar una grabación antigua y mejorar su calidad de sonido. Una herramienta que sirve para crear obras maestras, pero que también se puede utilizar para fines oscuros mediante la creación de voces e imágenes falsas que pueden utilizarse para realizar estafas.

Afortunadamente estos deepfakes aún no están bien desarrollados. Son fácilmente detectables pero ya se utilizan para actividades fraudulentas, algo que irá a peor en el futuro porque la tecnología no se detiene. Los resultados mejorarán notablemente. OpenAI, la empresa que ha desarrollado ChatGPT, ha mostrado una app que permite generar voces a partir de texto. Este sistema genera audios muy parecidos a una voz humana real; una nueva arma para los ciberdelincuentes. La aplicación de OpenAI permite seleccionar entre diferentes voces antes de pronunciar el texto, lo que pone de manifiesto la rápida velocidad de evolución de esta tecnología, con lo que esto supone para la seguridad.

Actualmente no existe ningún sistema que pueda reproducir voces deepfake que no se puedan distinguir del habla de los humanos, pero en los últimos meses cada vez se lanzan más herramientas de este tipo. Hasta no hace mucho, los usuarios necesitaban conocimientos de programación para crear deepfakes, pero ahora todo es más sencillo. En el corto plazo vamos a ver modelos que serán aún más fáciles de utilizar y con una gran calidad en los resultados.

Los fraudes basados en la Inteligencia Artificial son poco comunes, pero es cierto que hay algún caso reseñable. A mediados de octubre de 2023 el multimillonario y fundador de varios fondos de capital riesgo, Tim Draper, alertó en redes sociales de que la IA es cada vez más inteligente y que una versión falsa de su voz estaba utilizándose para actividades fraudulentas. Explicó que los estafadores pedían el envío de criptomonedas aprovechándose de sus altos conocimientos en inversión, haciéndose pasar por él mismo.

¿Cómo protegernos de los deepfakes?

De momento la sociedad no percibe los deepfakes como una amenaza porque hay pocos casos en los que se hayan usado para actividades maliciosas. Por este mismo motivo están tardando en aparecer soluciones de seguridad contra deepfakes.

La mejor manera de estar protegidos es escuchar atentamente lo que dice la persona que se trata de comunicar con nosotros a través de la voz. Si es de mala calidad, muestra ruidos y tiene un toque robótico, no se debe confiar nunca en ella.

Otra forma de detectar si estamos ante un deepfake es plantear cuestiones distintas. Por ejemplo, preguntar al interlocutor por su color favorito puede ser algo que descoloque al ciberatacante, ya que no es algo que suelan preguntar las víctimas. Por ello, intentará contestar cuanto antes para evitar ser detectado, pero casi con toda seguridad se producirá un retraso que dejará claro que están tratando de engañarnos.

La opción más segura para mantenerse protegido es instalar una solución de seguridad de confianza en los dispositivos que ayude a combatir los deepfake, evite los sitios web maliciosos, las descargas no deseadas y analice continuamente los archivos de los equipos.

“El principal consejo ahora mismo es no obsesionarse con este tipo de amenazas y estar continuamente buscando voces deepfakes donde no las hay. Es poco probable que con la tecnología actual se pueda crear una voz que no se pueda reconocer como artificial. Sin embargo, hay que ser conscientes de las amenazas que se ciernen y prepararse para el futuro. Los deepfake serán muy pronto una nueva realidad”, manifiesta Dmitry Anikin, científico de datos senior de Kaspersky.

Más información

Etiquetas Deepfakes

Cargando noticia...