Fraude digital se actualiza: cuentas mulas ahora usan deepfakes e inteligencia artificial
El mundo del cibercrimen está dando un salto evolutivo que parece sacado de un episodio de Black Mirror. Las clásicas cuentas mulas, esas que los defraudadores usaban para mover dinero sucio reclutando a personas reales (a veces sin que ellas lo supieran), están mutando. Ya no se trata solo de perfiles falsos con fotos robadas de Instagram. Ahora, la amenaza incorpora identidades sintéticas generadas por IA, deepfakes hiperrealistas y procesos automatizados para burlar los controles bancarios. Según datos de la plataforma antifraude Sumsub, este tipo de fraude se ha multiplicado por 4.5 en México durante los últimos cinco años.
Piensa en esto: antes, un estafador necesitaba convencer o engañar a alguien para que prestara su identidad. Hoy, puede crear una persona digital desde cero. Con herramientas de inteligencia artificial, genera un rostro que no existe, una voz coherente y hasta documentos de identidad manipulados con un realismo alarmante. Estos “synthetic identities” son el nuevo soldado del fraude financiero. No son un préstamo de identidad, son una invención completa, lo que las hace mucho más difíciles de rastrear y vincular a un criminal real. El informe destaca que este método ya representa el 11% de los principales fraudes de primera parte en el país para 2025.
Pero la tecnología no solo sirve para crear al mula, sino también para operarla. Los procesos se han automatizado. Phishing masivo y dirigido, creación de cuentas en lotes y verificación de identidad mediante deepfakes en videollamadas son solo la punta del iceberg. Un bot puede gestionar decenas de estas cuentas sintéticas, realizando patrones de comportamiento que imitan a un usuario legítimo, para luego mover fondos ilícitos a gran escala. Es como si el villano de una película de hackers hubiera conseguido un ejército de clones digitales obedientes.
La batalla tecnológica se intensifica
Frente a esta oleada de fraude 2.0, las defensas basadas en reglas simples (como verificar que un selfie coincida con una foto de un INE) están quedando obsoletas. La detección efectiva ahora requiere correlacionar múltiples factores en tiempo real: la identidad (¿es sintética?), el comportamiento (¿es un patrón humano o automatizado?) y el contexto de las transacciones. Las soluciones antifraude más avanzadas están recurriendo a su propia IA para combatir a la IA criminal, analizando micro-expresiones en los videos, detectando inconsistencias en los documentos y estableciendo patrones de riesgo complejos. Para la generación que vive en línea, comprender estas amenazas es crucial, no solo para proteger sus cuentas bancarias, sino también sus identidades digitales en redes sociales, videojuegos y plataformas de contenido.
Este panorama nos coloca en una encrucijada tecnológica fascinante y a la vez preocupante. Las mismas herramientas que impulsan la creatividad digital, los filtros de video y los avatares hiperrealistas en los juegos, están siendo weaponizadas por el crimen organizado. El mensaje para los usuarios, especialmente los jóvenes nativos digitales, es claro: hay que elevar el nivel de escepticismo. Un video de alguien pidiendo una verificación, una voz familiar en un mensaje de audio o un perfil con una foto perfecta ya no son garantía de nada. En la nueva internet, la pregunta ya no es solo “¿quién está detrás de esta cuenta?”, sino “¿existe siquiera la persona que está detrás de esta cuenta?”.




