El uso de inteligencia artificial (IA) en actividades delictivas ha crecido de forma vertiginosa, y las estafas basadas en deepfakes o clonaciones de voz son un ejemplo claro de esta evolución. Hoy más del 50 % del fraude financiero registrado incluye algún tipo de IA, lo que facilita la creación de voces y videos hiperrealistas para engañar incluso a usuarios y empleados de instituciones financieras.
¿Qué son los deepfakes?
Los deepfakes son contenidos audiovisuales generados o modificados mediante IA generativa que imitan la apariencia o voz de una persona real. A partir de grabaciones originales, estas herramientas pueden recrear tonos, acentos y gestos con gran fidelidad, hasta el punto de que resulta casi imposible distinguir lo falso de lo auténtico.
Modalidades de estafa con deepfakes
- Clonación de voz en llamadas (vishing): el delincuente utiliza software de clonación para simular la voz de un directivo o familiar y solicita transferencias de dinero o datos sensibles. En España y Latinoamérica se han reportado casos donde empleados transfirieron sumas considerables de dinero tras creer que hablaban con sus jefes.
- Videos falsos en reuniones virtuales: la creación de un video deepfake para simular la presencia de un ejecutivo en una junta ha costado a empresas multimillonarias hasta 24 millones de dólares en un solo incidente ocurrido en 2024.
- Suplantación de identidad en redes sociales: en plataformas como WhatsApp y Facebook, los estafadores publican clips falsos de celebridades o influencers para ganar credibilidad y atraer a víctimas que comparten información personal o depositan dinero.
Casos recientes en México
En el país, el sector financiero y de telecomunicaciones reporta un repunte del 84 % en los intentos de robo de identidad digital, muchos vinculados indirectamente a deepfakes o IA generativa. Además, más del 10 % de los fraudes cibernéticos ahora involucra falsificaciones de identidad con IA, afectando especialmente a usuarios de servicios bancarios en línea.
Cómo detectar un deepfake
- Calidad de audio o video inconsistente: cambios súbitos en iluminación, ecos extraños o pequeños “saltos” en la voz suelen delatar un deepfake.
- Verificación por canales alternos: si recibes una solicitud inusual, confirma a través de una llamada o correo oficial distinto al que usaron inicialmente.
- Señales en el lenguaje corporal: en los videos, presta atención a movimientos oculares, parpadeos y sincronización labial; las IA a menudo fallan en reproducir estos detalles de forma natural.
Medidas de protección
- Implementar autenticación multifactor en todas las cuentas importantes para dificultar el acceso solo con credenciales robadas.
- Adoptar soluciones de detección de fraude basadas en IA que identifiquen patrones sospechosos de voz o video antes de autorizar transacciones.
- Capacitar al personal y usuarios finales para reconocer y reportar posibles deepfakes, actualizando con regularidad las guías de seguridad.
Las estafas con deepfakes representan un riesgo creciente para empresas y consumidores. Conocer sus modalidades, aprender a identificarlas y adoptar medidas de protección tecnológicas y humanas resulta fundamental para reducir el impacto de este tipo de fraude digital en 2025 y años venideros.