Durante años, cuando hablábamos de riesgos digitales para niños y adolescentes, pensábamos en ciberacoso, grooming o exposición a contenidos inapropiados. Hoy, la inteligencia artificial ha abierto una nueva frontera que no encaja del todo en esas categorías, pero que las agrava a todas: los desnudos deepfake.
No se trata de un riesgo hipotético ni de un escenario futuro. La evidencia muestra que ya está ocurriendo, que afecta a menores reales y que produce daño psicológico, social y escolar, incluso cuando la imagen “no es real”.
Este artículo se apoya principalmente en la investigación Deepfake Nudes & Young People, publicada por Thorn en marzo de 2025, una de las organizaciones con mayor trayectoria internacional en la protección de la infancia frente a la explotación sexual digital.
Por qué hablamos de esto ahora
La IA generativa ha cambiado tres cosas clave al mismo tiempo:
Disponibilidad: ya no se necesitan conocimientos técnicos avanzados.
Velocidad: una imagen puede crearse y circular en minutos.
Realismo: los resultados son cada vez más creíbles.
Esto ha hecho posible que una fotografía cotidiana —una imagen escolar, una selfie, una foto de redes sociales— pueda convertirse en un desnudo falso, sexualizado y no consentido, con consecuencias reales para quien aparece en ella.
La pregunta ya no es si esto puede pasar.
La pregunta es qué estamos haciendo para prevenirlo y cómo respondemos cuando ocurre.

La investigación que lo confirma: qué estudió Thorn en 2025
Quién es Thorn y por qué su investigación importa
Thorn es una organización internacional especializada en combatir la explotación sexual infantil en entornos digitales. Su trabajo combina investigación, desarrollo tecnológico y colaboración con plataformas y autoridades.
La relevancia de este informe es clara: no se basa en opiniones adultas ni en casos aislados, sino en datos recogidos directamente de niños, adolescentes y jóvenes.
Cómo se realizó el estudio
La investigación de Thorn se basó en una encuesta a 1.200 jóvenes entre 13 y 20 años, realizada en Estados Unidos a finales de 2024. El estudio analizó:
Conocimiento del fenómeno de los desnudos deepfake
Experiencias directas e indirectas de victimización
Percepción del daño
Reacciones ante el abuso
Casos en los que los propios jóvenes crearon o compartieron este tipo de contenido
Este enfoque permite entender no solo qué está pasando, sino cómo lo viven los propios adolescentes.

Qué revelan los datos de Thorn (el núcleo del problema)
Un fenómeno más extendido de lo que parece
Los datos desmontan la idea de que se trata de “casos raros”:
1 de cada 8 jóvenes conoce a alguien que fue víctima de un desnudo deepfake siendo menor de edad.
1 de cada 17 adolescentes declara haber sido víctima directa.
En términos sociales, esto significa que el fenómeno ya está presente en entornos escolares y grupos juveniles, incluso si no siempre se nombra o se denuncia.
El daño es real, aunque la imagen sea falsa
Uno de los hallazgos más claros del informe es la percepción del daño:
84% de los jóvenes considera que los desnudos deepfake causan daño real a la persona afectada.
El argumento de que “no importa porque no es real” aparece solo en una minoría. La mayoría entiende que el daño no está en el cuerpo mostrado, sino en:
la humillación pública,
la pérdida de control sobre la propia imagen,
el impacto emocional,
y el daño a la reputación dentro de su comunidad.
La violencia no está en el píxel.
Está en el uso sexualizado y no consentido de una identidad real.

El silencio y la vergüenza: por qué no siempre piden ayuda
Otro dato clave del informe es la brecha entre lo que los jóvenes dicen que harían y lo que realmente hacen:
Muchos adolescentes afirman que, en teoría, contarían a un adulto.
En la práctica, muchos menos lo hacen cuando les ocurre.
Las razones más comunes:
vergüenza,
miedo a no ser creídos,
temor a perder el control del teléfono o a ser castigados,
sensación de que “ya es tarde”.
Esto es clave para las familias: la falta de denuncia no significa que no haya daño.

Cuando el agresor también es menor
El informe de Thorn aborda un punto incómodo pero fundamental:
algunos menores también crean o comparten desnudos deepfake.
Un pequeño porcentaje de jóvenes reconoce haber usado herramientas de IA para generar este tipo de imágenes.
En aproximadamente un tercio de los casos, las víctimas también eran menores.
Las motivaciones detectadas incluyen:
curiosidad sexual,
presión del grupo,
venganza,
normalización del daño.
Esto no reduce la gravedad del acto, pero sí cambia la forma en que debe abordarse: la prevención y la educación temprana son esenciales.
Qué son los desnudos deepfake y cómo se producen
Los desnudos deepfake suelen crearse mediante herramientas conocidas como apps de nudificación o mediante editores de IA generativa que:
toman una imagen real de una persona,
eliminan digitalmente la ropa,
generan un cuerpo desnudo sintético,
lo integran con el rostro original.
El resultado no es una caricatura: muchas veces es suficientemente realista como para engañar a terceros, especialmente a otros adolescentes.
El daño se amplifica cuando:
la imagen se comparte en grupos privados,
se guarda,
se vuelve a reenviar,
reaparece meses después.
La víctima pierde el control de algo que nunca consintió.
Lo que otros estudios de 2025 confirman
Aunque Thorn es el eje central, otros estudios internacionales publicados en 2025 refuerzan sus conclusiones.
En Reino Unido, investigaciones con adolescentes muestran que 1 de cada 4 jóvenes ha visto desnudos deepfake, y que muchas chicas reducen su participación online por miedo a ser sexualizadas.
Desde el ámbito académico, estudios señalan que las escuelas no están preparadas, carecen de protocolos claros y rara vez abordan este riesgo en educación digital.
A nivel europeo e internacional, se advierte que el volumen de deepfakes crece de forma exponencial y que la mayoría tiene carácter sexual, afectando especialmente a mujeres y niñas.
Distintos contextos, mismas conclusiones.
Señales de alerta que no deberían ignorarse
En niños y adolescentes:
cambios bruscos de ánimo,
rechazo repentino al uso del teléfono,
miedo a asistir a la escuela,
aislamiento social.
En lo digital:
eliminación súbita de cuentas,
mensajes borrados con frecuencia,
uso compulsivo del bloqueo,
nerviosismo ante notificaciones.
En el entorno escolar:
rumores, burlas,
circulación de capturas,
silencios colectivos.
Qué hacer si ya ocurrió
La evidencia muestra que la respuesta adulta importa.
Contención emocional inmediata
Escuchar, creer y acompañar. Sin reproches.Conservar evidencia sin amplificar
Guardar capturas y enlaces. No reenviar.Reportar y pedir retirada
A plataformas, instituciones educativas y canales especializados.Activar red de apoyo
Familia, escuela, apoyo psicológico si es necesario.Seguimiento
El daño no termina cuando la imagen desaparece.
Prevención que sí funciona
Conversaciones tempranas y continuas sobre consentimiento digital.
Acuerdos claros sobre no reenviar imágenes sexuales, aunque “sean falsas”.
Educación emocional y sexual adaptada a la era de la IA.
Entornos familiares donde contar no implique castigo.
Esto no es solo un problema familiar
La investigación de Thorn es clara: no basta con “poner límites en casa”.
Cuando:
las herramientas están disponibles,
la viralidad recompensa el daño,
y las plataformas no actúan con suficiente rapidez,
la responsabilidad es colectiva.
Familias, escuelas, plataformas y políticas públicas deben responder al mismo tiempo.
El dato
Los desnudos deepfake no son una exageración ni una moda pasajera.
La evidencia muestra que son una forma actual de violencia sexual digital que ya afecta a niños y adolescentes reales. La prevención empieza en la conversación, pero no termina ahí.
Fuente principal:
Thorn (2025). Deepfake Nudes & Young People: Navigating a new frontier in technology-facilitated nonconsensual sexual abuse and exploitation.




