Las estafas con voz clonada son una muestra clara de cómo la IA también puede ser usada con fines maliciosos.

Estafas con voz clonada: lo último en suplantación de identidad que amenaza a pymes y particulares

©Bigstock

Actualizado 30 | 06 | 2025 11:10

Estafas con voz clonada

La inteligencia artificial ha traído grandes avances en productividad, automatización y creatividad. Pero también ha abierto la puerta a nuevas formas de estafa que parecen sacadas de una serie de ciencia ficción. Una de las más preocupantes y recientes es la clonación de voz.

Gracias a modelos de IA entrenados con apenas unos segundos de audio, los ciberdelincuentes pueden imitar la voz de cualquier persona con una precisión sorprendente. Y con esa voz falsa, hacen llamadas que engañan a empleados, proveedores o incluso familiares para obtener dinero, información o acceso a cuentas sensibles.

La amenaza no es futura. Ya está ocurriendo. Y cualquier empresa, por pequeña que sea, puede ser víctima.

Cómo funciona una estafa con voz clonada

El proceso es más simple de lo que parece. Los atacantes consiguen muestras de voz de una persona concreta. A veces basta con un vídeo publicado en redes sociales, un mensaje de voz reenviado o un audio sacado de una reunión grabada.

Con eso, entrenan un modelo de IA —al alcance de cualquiera con conocimientos medios— que replica el timbre, la entonación y hasta las pausas de la persona original.

Una vez tienen esa voz, el fraude empieza. Llaman, por ejemplo, a un empleado de una pyme y le dicen con tono urgente:

«Hola, soy Carlos, el CEO. Estamos cerrando una operación y necesito que transfieras 8.000 euros a esta cuenta ahora mismo. Luego te explico.»

La voz es exactamente la de su jefe. La situación es estresante. Y muchas veces, el engaño funciona.

Por qué las pymes son objetivo fácil

Las grandes empresas tienen departamentos de seguridad, protocolos de verificación y personal entrenado para detectar amenazas. Muchas pymes, en cambio, operan con confianza interna, respuestas rápidas y una estructura más informal.
Esto las hace más vulnerables. Si alguien llama fingiendo ser el director, es fácil que se actúe sin verificar, especialmente en situaciones urgentes.

Además, muchas pymes publican contenido en redes sin saber que un simple vídeo en Instagram puede ser usado para capturar muestras de voz. Una entrevista, un podcast o una presentación grabada pueden convertirse en materia prima para los estafadores.

Cómo protegerse de las estafas con voz clonada

  1. Establecer una palabra clave interna. Define una palabra o código que deba usarse en cualquier comunicación urgente que implique movimientos de dinero. Esa palabra no debe figurar en correos ni chats. Solo se dice entre personas de confianza. Si no aparece, no se actúa.
  2. Verificación por doble canal. Nunca tomes decisiones financieras basadas únicamente en una llamada, por muy conocida que sea la voz. Verifica por otro canal: mensaje interno, correo o videollamada. Más vale parecer exagerado que ser víctima de fraude.
  3. Formar al equipo en ciberseguridad emocional. Estas estafas juegan con los nervios, la urgencia y la jerarquía. Enseña a los empleados a detectar señales de alerta: tono de presión, instrucciones poco habituales, cuentas bancarias nuevas, lenguaje inusual.
  4. Limitar la exposición pública de audios sensibles. Evita subir grabaciones de voz innecesarias a plataformas públicas. Si participas en un podcast o publicas vídeos hablando, sé consciente de que podrían usarse para clonar tu voz.
  5. Instalar alertas de comportamiento sospechoso en cuentas bancarias. Algunas plataformas permiten configurar notificaciones para movimientos atípicos o transferencias fuera de lo habitual. Estas alertas pueden ganar minutos clave para reaccionar ante un fraude.

Las estafas con voz clonada son una muestra clara de cómo la IA también puede ser usada con fines maliciosos. El impacto no es solo económico, sino emocional: ¿qué pasa cuando dudas si quien te llama es realmente tu jefe, tu cliente o incluso tu hijo?

La única defensa es la prevención. Formar, verificar, poner protocolos y no confiar ciegamente en lo que oímos, por muy familiar que suene.

En ciberseguridad, la tecnología no es ni buena ni mala. Lo que marca la diferencia es cómo la usamos… y cómo nos protegemos de quienes la usan para engañar.

Te puede interesar


Cargando noticia...