La ia y los deepfakes exigen a las plataformas digitales reforzar la protección del menor en internet
La inteligencia artificial avanza a pasos agigantados, y con ella, los riesgos para los menores de edad en el entorno digital. Mientras celebramos el Día del Niño y la Niña en México, una alerta emerge desde el sector de la ciberseguridad: los deepfakes y otras herramientas basadas en IA están permitiendo nuevas formas de abuso, suplantación de identidad y evasión de los controles de seguridad que, hasta ahora, se consideraban efectivos en plataformas de streaming, redes sociales y videojuegos.
De acuerdo con un reporte de Sumsub, compañía global especializada en verificación de identidad, los deepfakes crecieron un 201% en Latinoamérica durante el último año, y México encabeza la lista con un incremento cercano al 500%. Esto significa que el contenido audiovisual manipulado con fines maliciosos —desde grooming hasta extorsión— se ha vuelto más accesible y realista. Lo preocupante es que el 77% de los menores en México ya tiene acceso a internet, y muchos de ellos navegan sin supervisión o con herramientas de control parental que resultan fácilmente evadibles.
El problema no es menor. Los mecanismos tradicionales de verificación de edad —como preguntar la fecha de nacimiento o pedir un correo electrónico— son prácticamente inútiles frente a un deepfake bien elaborado. Un adolescente con conocimientos básicos de IA generativa puede crear un video falso de sí mismo o de otros, y las plataformas carecen de sistemas capaces de detectar esa manipulación en tiempo real. Esto abre la puerta a fraudes, ciberacoso y, en casos extremos, a la creación de material de abuso sexual infantil generado por computadora (CSAM).
La industria del gaming y el entretenimiento digital, que es el ecosistema natural de la audiencia joven, enfrenta un desafío doble: por un lado, debe garantizar experiencias inmersivas y divertidas; por el otro, necesita implementar sistemas de verificación más dinámicos que no interrumpan la experiencia del usuario. Sumsub propone un enfoque de monitoreo continuo basado en inteligencia artificial, capaz de analizar comportamientos y detectar anomalías sin depender de un solo punto de control. En lugar de una verificación única al registrarse, el sistema evaluaría constantemente la autenticidad de la identidad digital, alertando sobre posibles suplantaciones.
Mientras tanto, la responsabilidad también recae en padres, tutores y en la propia comunidad. No se trata de alarmar, sino de informar: saber que un video puede ser falso, que un perfil puede no ser quien dice ser y que las herramientas de control parental deben actualizarse junto con la tecnología. La conversación sobre seguridad digital ya no puede limitarse a “no hables con extraños”; hoy incluye conceptos como verificación biométrica, detección de deepfakes y educación en alfabetización mediática.
En un país donde los jóvenes pasan cada vez más horas frente a pantallas —ya sea jugando, viendo streamers o explorando redes sociales—, la protección del menor en internet se convierte en una prioridad que no puede esperar. La tecnología que nos fascina también puede usarse para lastimar, y la única forma de adelantarse es entendiendo sus riesgos con la misma pasión con la que celebramos sus avances.





