La IA ya es una amenaza para los niños

El crecimiento de la Inteligencia Artificial y los deepfakes está obligando a las plataformas digitales a reforzar la protección de menores en internet.

Cada vez es más común ver niños y adolescentes pegados al celular. Pero mientras el internet se vuelve parte de la vida diaria desde edades más tempranas, también crecen los peligros que muchas veces pasan desapercibidos.

En el marco del Día del Niño, Sumsub advierte que el aumento de la conectividad infantil y el avance de la IA están disparando los riesgos de abuso en internet, a un ritmo que los mecanismos actuales y la regulación de plataformas digitales ya no logran contener.

La preocupación no es menor. De acuerdo con la Encuesta Nacional sobre Disponibilidad y Uso de Tecnologías de la Información en los Hogares (ENDUTIH) 2024 del INEGI, el 77% de niñas, niños y adolescentes de entre 6 y 17 años ya tiene acceso a internet en casa. Aunque esto representa un avance en conectividad e inclusión digital, también incrementa la exposición a delitos y agresiones en línea.

Uno de los puntos más alarmantes es el crecimiento acelerado de los ataques con deepfakes en Latinoamérica. Datos de Sumsub revelan que este tipo de ataques aumentó un 201% en promedio en la región, mientras que México registró un incremento cercano al 500% interanual.

Los deepfakes utilizan inteligencia artificial para crear imágenes, videos o audios falsos con un nivel de realismo muy alto. El problema es que estas herramientas pueden ser usadas para generar contenido íntimo falso, manipular imágenes de menores, ocultar identidades o incluso facilitar delitos digitales con mayor impunidad.

Las plataformas digitales enfrentan un reto urgente

Actualmente, muchas plataformas siguen utilizando sistemas básicos de verificación de edad como principal medida de protección. Sin embargo, expertos advierten que estos controles son fácilmente vulnerables mediante identidades falsas, cuentas compartidas o incluso la intervención de adultos.

Además, estos mecanismos no permiten detectar comportamientos sospechosos dentro de las plataformas, lo que limita la capacidad de prevención.

Según José Pablo Diethelm, experto en verificación de identidad digital de Sumsub, las empresas tecnológicas necesitan evolucionar hacia modelos mucho más robustos.

“Los controles actuales para la protección del menor en internet son hoy en día insuficientes. Las plataformas digitales deben avanzar hacia esquemas más estrictos, incorporando sistemas de análisis de conducta y controles preventivos”, señaló el especialista.

Diethelm advierte que ignorar este problema puede derivar en crisis reputacionales, pérdida de usuarios, conflictos legales y desconfianza de anunciantes.

Acoso digital y abuso infantil en aumento

Las cifras en México reflejan la magnitud del problema. Estimaciones de la Red por los Derechos de la Infancia en México (REDIM) indican que durante 2024 más de 2.9 millones de adolescentes de entre 12 y 17 años enfrentaron algún tipo de acoso en línea.

A esto se suma el informe 2024-2025 del Consejo Ciudadano para la Seguridad y Justicia de la Ciudad de México, que reporta un incremento en la circulación de material de abuso sexual infantil a través de redes sociales y plataformas de videojuegos.

¿Cómo proteger a los menores en internet?

Frente a este escenario, especialistas señalan que las plataformas digitales deben adoptar sistemas de protección más avanzados y dinámicos. Entre las medidas recomendadas destacan:

  • Verificación de identidad robusta desde el registro de usuarios.
  • Validación de edad mediante documentos o bases de datos oficiales.
  • Monitoreo continuo de conductas sospechosas en tiempo real.
  • Sistemas de IA capaces de detectar contenido manipulado y patrones de riesgo.
  • Revalidaciones periódicas para evitar el uso indebido de cuentas legítimas.
  • Modelos de supervisión basados en comportamiento y nivel de riesgo.

La IA ya cambió las reglas del juego

La protección del menor en internet atraviesa uno de sus momentos más críticos. La inteligencia artificial ya no solo sirve para crear contenido innovador; también puede ser utilizada para manipular identidades, fabricar imágenes falsas y potenciar delitos digitales.

Por ello, expertos coinciden en que las plataformas digitales deben asumir una responsabilidad mucho más activa en la seguridad de sus usuarios, especialmente de niñas, niños y adolescentes.

Deja una respuesta