Fraude financiero evoluciona: cuentas mulas ahora usan IA y deepfakes en México

Fraude financiero evoluciona: cuentas mulas ahora usan IA y deepfakes en México
Fraude financiero evoluciona: cuentas mulas ahora usan IA y deepfakes en México

El paisaje del fraude financiero digital en México está experimentando una transformación radical y alarmante. Las tradicionales cuentas mulas, utilizadas para lavar dinero y mover fondos ilícitos, han dejado de depender únicamente del reclutamiento de personas reales, muchas veces engañadas. Hoy, los defraudadores están escalando sus operaciones mediante la combinación de identidades sintéticas generadas por inteligencia artificial, deepfakes hiperrealistas y procesos de automatización, creando un modelo de delito más sofisticado y difícil de rastrear.

Según datos de la firma de verificación Sumsub, el uso de cuentas mulas ha crecido 4.5 veces en México en los últimos cinco años. Este tipo de fraude ya representa aproximadamente el 11% de los principales fraudes de primera parte registrados en 2025, donde el cliente mismo, o una identidad falsa asociada a él, es instrumentalizado para el delito. La evolución marca un punto de inflexión: los criminales ya no solo explotan vulnerabilidades humanas, sino que industrializan el fraude con tecnología de punta.

El modus operandi actual integra varias capas tecnológicas. Primero, se crean identidades sintéticas completas –nombres, rostros, datos biométricos– utilizando generadores de IA. Luego, para verificar estas identidades falsas ante instituciones financieras o plataformas, se emplean deepfakes de video o audio que simulan a una persona real pasando un proceso de autenticación. Finalmente, bots y scripts automatizan el proceso de phishing, la creación masiva de cuentas y el movimiento inicial de fondos, permitiendo operaciones a una escala antes imposible.

Un desafío para los sistemas tradicionales

Esta sofisticación representa un reto monumental para los sistemas antifraude basados en reglas simples o verificación de documentos estáticos. “La detección ya no puede basarse en reglas aisladas”, señala el análisis, “sino en la correlación de identidad, comportamiento y transacciones en tiempo real”. Un documento de identidad puede parecer válido, pero si el rostro que aparece en el video de verificación es un deepfake generado minutos antes y el patrón de transacciones de la cuenta es atípico desde su creación, solo un sistema que analice todos estos factores de manera conjunta podrá alertar sobre el riesgo.

Para el usuario común en México, esta evolución del fraude se traduce en una amenaza más invisible y persuasiva. Los deepfakes pueden ser utilizados no solo para crear cuentas falsas, sino también para suplantar a familiares o contactos en videollamadas falsas pidiendo transferencias urgentes. La combinación de ingeniería social con tecnología convincente crea un cóctel peligroso. Las instituciones financieras, por su parte, se ven obligadas a invertir en soluciones de verificación de identidad más robustas, que incluyan detección de vitalidad (para asegurar que es una persona real y no un video) y análisis de metadatos digitales.

El fenómeno subraya la doble cara de la innovación tecnológica. Mientras herramientas de IA generativa como los modelos de lenguaje o de imagen avanzan para el público, las mismas bases técnicas son cooptadas por actores malintencionados para perfeccionar sus estafas. La respuesta, coinciden los expertos en ciberseguridad, debe ser igualmente tecnológica y proactiva, pero también requiere de una mayor educación financiera y digital de la población para reconocer las nuevas trampas. La batalla contra el fraude ya no se libra solo en el ámbito de las contraseñas o los correos phishing, sino en el campo del realismo sintético y la automatización maliciosa.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.