La Inteligencia Artificial (IA), reconocida por sus avances en campos como la medicina, la educación y la industria, también ha abierto la puerta a un fenómeno alarmante: la generación de material de abuso sexual infantil (MASI). Expertos y activistas advierten que estas nuevas formas de explotación representan un riesgo sin precedentes para niñas, niños y adolescentes.
De acuerdo con organismos internacionales como la Internet Watch Foundation, Europol y la ONU, miles de imágenes hiperrealistas creadas con IA ya circulan en la web abierta, incluso en sitios accesibles desde buscadores como Google. Aunque no involucren víctimas físicas, este contenido constituye un delito grave, pues reproduce agresiones sexuales simuladas y contribuye a normalizar la violencia.
México, en foco internacional
Según un análisis de la especialista Julia Frías, México ocupa el segundo lugar mundial en generación de MASI. Activistas como Olimpia Coral, impulsora de la Ley Olimpia, denuncian que la IA está “sistematizando la violación masiva de cuerpos”, al transformar el abuso sexual infantil en un producto digital que alimenta economías ilícitas.
La Red por los Derechos de la Infancia en México (REDIM) alerta que la exposición de este material erosiona la capacidad social de rechazar el abuso y perpetúa estructuras de poder que legitiman la violencia sexual.
El debate legislativo en México
Diputadas como Gloria Elizabeth Núñez y Rosa Guadalupe Ortega han presentado iniciativas para reformar el Código Penal Federal e incluir el uso de IA en delitos de pornografía infantil. Sin embargo, especialistas advierten que la legislación corre el riesgo de quedarse obsoleta frente a la velocidad del avance tecnológico.
Para la Red en Defensa de los Derechos Digitales (R3D), no se trata de crear nuevas figuras legales, sino de aplicar de manera efectiva las leyes existentes y fortalecer a las fiscalías. “Hoy es la IA, mañana tendrá otro nombre; si legislamos cada innovación, nunca alcanzaremos el paso”, señala Francia Pietrasanta, de R3D.
Falta de justicia y casos pendientes
El caso de Diego “N.”, estudiante del Instituto Politécnico Nacional acusado de crear y compartir imágenes sexuales de compañeras mediante deep fakes, mostró las limitaciones del sistema judicial. Aunque fue condenado a cinco años de prisión por posesión de pornografía infantil, la ley no contempló la creación de imágenes con IA como delito específico.
Este ejemplo refleja la dificultad de sancionar casos en los que las imágenes son completamente ficticias, pero generadas a partir de datos biométricos y fotografías reales obtenidas sin consentimiento.
Un reto global
Los expertos coinciden en que la respuesta no puede limitarse a nivel nacional. Plataformas tecnológicas y compañías desarrolladoras de IA deben implementar mecanismos para detectar y bloquear material de abuso antes de que llegue a la web pública. A la par, los gobiernos deben avanzar en regulaciones internacionales que cierren la brecha legal y protejan a la infancia.
La UNESCO, la OCDE y la Unión Europea ya han establecido lineamientos éticos, pero aún no existe un marco vinculante para sancionar la generación de MASI. Sin un compromiso global, los delincuentes pueden trasladar su operación a países con legislaciones débiles.
Educación y prevención, claves para la protección
Organizaciones como REDIM destacan que la solución requiere un enfoque integral: educación digital, prevención, protección de datos personales y educación sexual que reduzca la hipersexualización infantil.
La IA ha hecho posible fabricar imágenes sexuales simuladas de menores con un realismo inquietante. Aunque no haya víctimas físicas identificables, el daño social y simbólico es profundo. Para los expertos, el desafío no es solo legal: es cultural y estructural. Si no se actúa con decisión, advierten, estas nuevas formas de explotación podrían convertirse en una violencia normalizada en la sociedad digital del mañana.



