Con el auge de los deepfakes y el fraude sintético, es crucial asegurarse de que el sistema biométrico es seguro y confiable

Aumentan los deepfakes: riesgos y cómo la biometría se ha convertido en la mejor defensa

©BigStock

Actualizado 18 | 05 | 2023 10:50

Deepfakes detectar

Las personas son cada vez más conscientes de los peligros potenciales del fraude sintético, como consecuencia del aumento de las falsificaciones en los últimos años. Este tipo de engaño se produce cuando los delincuentes utilizan tecnología avanzada para generar información manipulada con el fin de engañar a terceros y sacar beneficios ilegalmente, como la creación de perfiles de identidad falsos.

Los deepfakes han ganado terreno, con la optimización de la tecnología, resultan más convincentes y difíciles de detectar que nunca. Pueden parecer auténticos, ya que estos vídeos manipulados se crean mediante algoritmos de IA que pueden replicar el lenguaje corporal, las expresiones faciales y la voz de una persona. Además, al ser casi idénticos a la realidad, la difusión se acelera. De esta manera, un uso malintencionado puede causar un daño importante tanto a empresas, que pueden acabar sufriendo un duro golpe reputacional, como a personas, que pueden ser extorsionadas y estafadas por culpa de estas amenazas. De hecho, una redactora de ‘The Wall Street Journal’ ha profundizado en un reportaje sobre cómo utilizar herramientas de IA para crear una copia de virtual de sí misma, advirtiendo sobre el potencial peligro del abuso de estas herramientas, que se pueden emplear para estafar a terceros e, incluso, para realizar amenazas de muerte.

Sin embargo, existen medidas certificadas que son capaces de detectar caras y voces falsas. La autenticación biométrica ofrece una solución segura y confiable, incluso en presencia de este tipo de ataques, especialmente en comparación con los métodos tradicionales de autenticación. Es decir, brinda una experiencia más robusta y fácil de usar que está ganando terreno en industrias como la financiera y los seguros. Su uso es crucial para las empresas que buscan implementar esta tecnología como parte de su proceso de verificación de identidad.

Para concienciar sobre este peligro, desde Veridas nos aportan seis claves que pueden ayudar a detectar un deepfake:

  • Lenguaje corporal: la falta de sincronización entre el audio y el movimiento de los labios es un indicio de este episodio. También se puede detectar si se presta atención a cómo la persona mueve los ojos, la cabeza o la boca.
  • Incoherencia:en ocasiones, la persona representada en el vídeo puede ofrecer ciertas inconsistencias en su discurso.
  • Fuente: si el vídeo procede de una fuente desconocida o poco fiable, es posible que sea un deepfake.
  • Tecnología verificada: es clave utilizar una solución de biometría de voz confiable y segura para aquellas empresas que buscan implementar esta tecnología como parte de su proceso de verificación de identidad. Compañías como Veridas cuentan con una solución líder en el mercado que es independiente de texto e idioma, lo que permite a los usuarios hablar en cualquier lengua sin tener que repetir una frase concreta.
  • Control del proceso de captura: la tecnología de anti-fraude de voz analiza el audio para detectar los ataques de presentación, en los que el atacante reproduce un audio pregrabado mediante un altavoz que puede ser un móvil o un PC. Cuando se reproduce dicho audio, la voz presente contiene matices que la distinguen de la voz original que se reproduce a través de las cuerdas locales.
  • Autenticación multifactor: la biometría de voz se combina con otras formas de autenticación, lo que permite vincular la identidad del usuario y hace mucho más difícil que los estafadores se puedan hacer pasar por otra persona.

Con el auge de los deepfakes y el fraude, es crucial asegurarse de que el sistema biométrico es seguro y confiable. Es decir, se ha convertido en un elemento imprescindible para las empresas que quieren transformar digitalmente sus operaciones.

Más información

Etiquetas Deepfakes

Cargando noticia...