Si bien la Inteligencia Artificial ha presentado importantes oportunidades de optimización, impulsando la eficiencia y abriendo vías para el crecimiento de los ingresos, las herramientas de Inteligencia Artificial también presentan desafíos importantes a medida que los actores maliciosos aprovechan esta tecnología para eludir los sistemas de seguridad existentes.
Desde estafas sofisticadas que imitan a humanos en vídeo hasta correos electrónicos de phishing que revelan información comercial confidencial, a continuación exploramos las diferentes técnicas de estafas impulsadas por Inteligencia Artificial.
Algoritmo de aprendizaje automático
Los algoritmos de aprendizaje automático (ML) están diseñados para analizar datos, aprender patrones y tomar decisiones con una mínima participación humana. Están capacitados en grandes conjuntos de datos para descubrir conocimientos y hacer predicciones. Se pueden explotar algoritmos específicos según el tipo de estafa que pretende ejecutar un actor malintencionado.
- Aprendizaje supervisado: los estafadores utilizan algoritmos de aprendizaje automático supervisados para analizar datos históricos y predecir resultados futuros. Esta técnica se aprovecha especialmente para imitar patrones de transacciones legítimas, lo que permite a los estafadores eludir los sistemas de detección de fraude. Un ejemplo notable es el uso del aprendizaje automático en el sector bancario, donde los estafadores replican patrones de gasto para hacer que las transacciones fraudulentas parezcan legítimas.
- Aprendizaje por refuerzo: en el aprendizaje por refuerzo, los algoritmos aprenden a tomar secuencias de decisiones refinando continuamente sus acciones en función de la retroalimentación para lograr un objetivo. Los estafadores aprovechan esto para automatizar sistemas que prueban diferentes estrategias y perfeccionan sus enfoques en función de lo que sea más eficaz para eludir las medidas de seguridad.
Procesamiento del lenguaje natural (PNL)
Los estafadores utilizan PNL para crear y enviar correos electrónicos y mensajes falsos y convincentes. Al analizar grandes cantidades de datos sobre el comportamiento y las preferencias de los usuarios, estos sistemas de Inteligencia Artificial generan contenido personalizado que es increíblemente difícil de distinguir de las comunicaciones genuinas.
La PNL también puede crear chatbots y sistemas de diálogo para generar y copiar el estilo y el tono de entidades legítimas. La PNL a menudo utiliza análisis léxico, sintáctico y semántico para descomponer el lenguaje en una fórmula replicable y similar a la humana.
Los robots de atención al cliente falsos, por ejemplo, son una práctica común para engañar a las víctimas potenciales para que proporcionen información o documentación confidencial con el pretexto de un simple control de seguridad.
Los operadores de estafas de chatbot, que a menudo se encuentran en plataformas de redes sociales, servicios de mensajería o páginas web falsas, utilizan algoritmos de PNL para llevar a cabo conversaciones automatizadas que parecen auténticas.
Visión por ordenador
La visión por ordenador permite a las máquinas interpretar y actuar sobre datos visuales utilizando técnicas como el reconocimiento de imágenes y vídeos para reconocer rostros, texto y actividades. La visión por ordenador es un campo específico de la Inteligencia Artificial que utiliza el aprendizaje automático y las redes neuronales para enseñar a los ordenadores y a los sistemas a ver y pensar de manera similar a los humanos.
Al manipular esta tecnología, los estafadores pueden crear activos multimedia realistas pero fraudulentos para las redes sociales y las páginas web. Se podrían crear imágenes y vídeos para eludir las medidas de autenticación actuales o crear estafas convincentes que repliquen líneas de productos y marcas existentes.
Por ejemplo, se pueden crear vídeos deepfake para hacerse pasar por personas tanto públicas como privadas, difundiendo información errónea e influyendo en la opinión pública al colocar a las personas en situaciones comprometedoras en las que tienen que demostrar su falta de participación.
Robots de ingeniería social
Los robots de ingeniería social utilizan la Inteligencia Artificial para interactuar con las personas de una manera que las manipula para que divulguen información confidencial o realicen acciones que comprometan la seguridad. Estos robots pueden:
- Simular conversaciones humanas: participa en conversaciones realistas para ganar confianza y extraer información confidencial.
- Phishing: utiliza tácticas sofisticadas para convencer a las personas de que hagan clic en enlaces maliciosos o descarguen archivos adjuntos dañinos.
Síntesis y clonación de voz
La Inteligencia Artificial puede clonar voces humanas para crear audio convincente para estafas. Esto se puede utilizar para:
- Phishing por voz (vishing): hacerse pasar por personas o autoridades de confianza para extraer información sensible o autorizar transacciones.
- Llamadas falsas de atención al cliente: estafar a personas haciéndose pasar por representantes legítimos de atención al cliente.
Agentes autónomos
Los agentes autónomos pueden realizar tareas sin intervención humana, lo que los hace útiles para automatizar procesos de estafa. Estos agentes pueden:
- Automatizar campañas de phishing: enviar grandes volúmenes de correos electrónicos de phishing con una mínima supervisión humana.
- Rellenar credenciales: automatizar el proceso de probar una gran cantidad de combinaciones de nombres de usuario y contraseñas para obtener acceso no autorizado a las cuentas.
Análisis de comportamiento
Los estafadores pueden utilizar la Inteligencia Artificial para analizar y predecir el comportamiento de los usuarios, adaptando las estafas a objetivos específicos. Esto involucra:
- Ataques personalizados: elaborar estafas basadas en perfiles detallados de víctimas individuales para aumentar las posibilidades de éxito.
- Ataques adaptativos: modificar el enfoque de estafa en tiempo real en función de las respuestas y el comportamiento de la víctima.