La tecnología también aprende a dañar antes de madurar.
Washington, marzo de 2026
Un estudio reciente sobre adolescentes en Estados Unidos ha encendido una alarma que ya no puede tratarse como rareza digital. Más de la mitad de los encuestados reportó haber usado inteligencia artificial para generar imágenes sexualizadas o desnudos, propios o de otras personas, dentro de un entorno marcado por anonimato, facilidad técnica y controles todavía insuficientes. El dato no solo inquieta por su magnitud. Inquieta porque muestra que la IA ya dejó de ser, para muchos menores, una herramienta de curiosidad o juego y empezó a operar también como dispositivo de invasión íntima.
Lo decisivo aquí no es únicamente la conducta aislada de algunos adolescentes, sino la normalización incipiente de una práctica profundamente invasiva. Cuando producir imágenes sexuales sintéticas de otra persona empieza a sentirse fácil, rápido y hasta trivial, el problema deja de ser tecnológico en sentido estricto. Se vuelve cultural, educativo y ético. La frontera entre experimento digital y agresión simbólica comienza entonces a erosionarse con una velocidad que las instituciones no están logrando seguir.
La gravedad aumenta porque este tipo de contenido no exige ya conocimientos avanzados ni infraestructuras sofisticadas. Muchas de estas herramientas operan con interfaces simples, promesas de anonimato y una lógica de entretenimiento que disfraza el daño detrás de la novedad técnica. En ese ecosistema, la IA no solo amplifica riesgos preexistentes del acoso digital. Los abarata, los acelera y los vuelve escalables.
También hay un problema de percepción generacional que no debe minimizarse. Parte de los adolescentes crece en plataformas donde editar rostros, alterar cuerpos o fabricar escenas ficticias ya forma parte del paisaje visual cotidiano. Bajo esas condiciones, la manipulación extrema de imágenes puede empezar a leerse menos como violencia y más como una extensión del consumo digital ordinario. Ahí reside una de las amenazas más profundas del momento: no solo que la herramienta exista, sino que el umbral moral frente a su uso abusivo se vuelva más borroso.
El desafío, por tanto, no puede resolverse únicamente con discursos abstractos sobre innovación responsable. Hace falta regulación más clara, fricción técnica real en las plataformas, educación digital más rigurosa y protocolos escolares capaces de responder antes de que el daño se convierta en trauma prolongado. Hablar de privacidad ya no basta si no se habla también de consentimiento, humillación, reputación y poder. La IA sexualizada entre menores no es una anomalía periférica. Es una advertencia temprana sobre cómo una tecnología de uso masivo puede colonizar incluso las zonas más delicadas de la identidad.
Lo que revela este estudio es algo incómodo, pero necesario. La inteligencia artificial está entrando en la adolescencia social no por su sofisticación, sino por su capacidad de reproducir impulsos humanos sin filtros suficientes. Y cuando una sociedad permite que esa curva de aprendizaje avance antes que sus defensas culturales y legales, el resultado no es progreso limpio. Es una modernización del daño.
Phoenix24: periodismo sin fronteras. / Phoenix24: journalism without borders.