Durante años, cuando hablábamos de riesgos digitales para niños y adolescentes, pensábamos en ciberacoso, grooming o exposición a contenidos inapropiados. Hoy, la inteligencia artificial ha abierto una nueva frontera que no encaja del todo en esas categorías, pero que las agrava a todas: los desnudos deepfake.
No se trata de un riesgo hipotético ni de un escenario futuro. La evidencia muestra que ya está ocurriendo, que afecta a menores reales y que produce daño psicológico, social y escolar, incluso cuando la imagen “no es real”.
Este artículo se apoya principalmente en la investigación Deepfake Nudes & Young People, publicada por Thorn en marzo de 2025, una de las organizaciones con mayor trayectoria internacional en la protección de la infancia frente a la explotación sexual digital.
Por qué hablamos de esto ahora
La IA generativa ha cambiado tres cosas clave al mismo tiempo:
Disponibilidad: ya no se necesitan conocimientos técnicos avanzados.
Velocidad: una imagen puede crearse y circular en minutos.
Realismo: los resultados son cada vez más creíbles.
Esto ha hecho posible que una fotografía cotidiana —una imagen escolar, una selfie, una foto de redes sociales— pueda convertirse en un desnudo falso, sexualizado y no consentido, con consecuencias reales para quien aparece en ella.
La pregunta ya no es si esto puede pasar.
La pregunta es qué estamos haciendo para prevenirlo y cómo respondemos cuando ocurre.

La investigación que lo confirma: qué estudió Thorn en 2025
Quién es Thorn y por qué su investigación importa
Thorn es una organización internacional especializada en combatir la explotación sexual infantil en entornos digitales. Su trabajo combina investigación, desarrollo tecnológico y colaboración con plataformas y autoridades.
La relevancia de este informe es clara: no se basa en opiniones adultas ni en casos aislados, sino en datos recogidos directamente de niños, adolescentes y jóvenes.





