El 98% de los jóvenes ha sufrido alguna forma de violencia sexual digital
Uno de cada cinco ha sido víctima de imágenes generadas con IA que les mostraba desnudo cuando aún era menor

La práctica totalidad de los jóvenes españoles (98%) afirman haber sufrido algún tipo de violencia sexual en entornos digitales cuando eran menores de edad. Así lo indica el informe ‘Redes que atrapan. La explotación sexual de la infancia y la adolescencia en entornos digitales’, un nuevo estudio realizado por Save the Children en colaboración con la Asociación Europea para la Transición Digital, que analiza las formas de explotación sexual que afectan a la infancia y la adolescencia en la red. Para la investigación se llevó a cabo una encuesta en la que participaron mil jóvenes de entre 18 y 21 años residentes en España.
Según los últimos datos oficiales del Ministerio del Interior, en 2023 se registraron en nuestro país 4.896 denuncias por delitos cibernéticos contra niños, niñas y adolescentes, de los que 1.068 correspondieron a delitos sexuales. “Estas cifras representan solo la punta del iceberg, ya que la mayoría de los casos no llegan a conocerse, en parte por la ausencia de denuncia y en parte por las dificultades en la detección, que aumenta cuando estos hechos tienen lugar en el entorno online”, señala, en un comunicado, Catalina Perazzo, directora de influencia y desarrollo territorial de Save the Children.
El informe de la ONG señala que la tecnología y los entornos digitales no solo exponen a los menores a riesgos relacionados con la explotación sexual, sino que también pueden ser el medio a través del que se cometen estas violencias, que pueden tomar distintas formas: contacto por parte de personas adultas con fines sexuales (grooming), el sexting sin consentimiento, la difusión no autorizada de contenido íntimo, consumo, producción y difusión de material de abuso sexual infantil (la mal llamada ‘pornografía infantil’), sextorsión (por la que los niños, niñas y adolescentes son coaccionados, chantajeados o amenazados para enviar material íntimo o sexual), el uso de herramientas de IA para crear este tipo de contenido o la exposición involuntaria a contenidos sexuales.
“Se trata de un fenómeno complejo ya que las distintas formas de violencia o explotación que se analizan no constituyen fenómenos aislados: en muchos casos, están conectadas entre sí, forman parte de un mismo proceso o se dan al mismo tiempo, por lo que un niño o una niña puede ser víctima de varias de ellas a la vez”, explica Perazzo.
En 2024, la NCMEC (organización mundial líder en la prevención y localización de niños y niñas víctimas de explotación sexual digital) registró, a nivel mundial, más de 19,8 millones de denuncias relacionadas con material de abuso sexual infantil. Estos contenidos pueden generarse a partir de abusos en entornos físicos o bien directamente en el entorno digital mediante manipulación, engaños, amenazas o extorsión, que inducen a la víctima a producir imágenes de contenido sexual.
También existe otro tipo de materiales que incluyen representaciones sexualizadas de niñas y niños o en situaciones de desnudez parcial o total que, aunque no muestran actos sexuales explícitos, presentan a la infancia desde una mirada sexualizada. “Estos materiales se encuentran en muchas ocasiones en zonas grises porque no alcanzan los umbrales legales para ser considerados delito en algunos países, pero plantean igualmente serias preocupaciones por su potencial para normalizar o trivializar la sexualización y la explotación de niños y niñas”, destaca Perazzo. En muchos casos, pueden ser fotografías de la vida cotidiana sin intención sexual, como imágenes en la playa o en actividades deportivas que son manipuladas o recontextualizadas con fines de explotación o gratificación sexual por parte de adultos.
Uso de la IA para generar desnudos
Otros materiales son creados mediante herramientas digitales a partir de imágenes reales de niñas y niños. Son los llamados deepfakes o ultrafalsificaciones. Uno de cada cinco jóvenes afirman que alguien ha compartido con otras personas imágenes creadas con IA para mostrarle desnudo cuando eran menores de edad y sin su consentimiento. Con todo, cerca del 70% reconoce que no percibió como un riesgo durante su infancia la manipulación de fotos o vídeos mediante IA.
Lucía López, educadora de Save the Children en Alicante, detectó un caso de este tipo en los programas que la organización desarrolla en la ciudad. “Una adolescente de 12 años me comentó que estaba siendo amenazada por una persona que le decía que, si no reenviaba a todos sus contactos un vídeo con contenido sexual que le había llegado a su teléfono, publicaría unas fotos de la niña desnuda, creadas con inteligencia artificial. La niña aseguraba que nunca había reenviado fotos suyas con ese tipo de contenido, pero sentía que ella había propiciado esa situación y que era culpa suya”.
Un 27% de los chicos y chicas encuestadas enviaron mensajes, fotos o vídeos íntimos o sexuales propios voluntariamente durante la infancia o adolescencia. “Incluso cuando se realizan de forma voluntaria, estas conductas plantean riesgos, pues una vez compartido, el contenido escapa al control de quien lo genera, abriendo la puerta a múltiples formas de victimización. Pueden ser redistribuidos sin consentimiento, utilizados por personas adultas con fines sexuales, utilizados para la sextorsión, etcétera”, advierte Perazzo.
Cuando se les pregunta a los jóvenes por los motivos por los que compartieron imágenes o vídeos íntimos o sexuales de sí mismos, casi la mitad (48%) no sabían que podía ser peligroso, el 46% cree que es algo normal o que no tiene consecuencias negativas, el 42% buscaba atención, afecto o validación, mientras que 4 de cada 10 esperaban ganar algo a cambio.
‘Grooming’ e infancia
La investigación de Save the Children también aborda cuáles son las principales formas de captación de niños y adolescentes con fines de explotación sexual. Entre ellas se encuentra el grooming que, a base de manipulación, el engaño y la coacción, busca obtener materiales digitales de contenido sexual, generar encuentros sexuales en el ámbito digital o en el físico, o involucrar al niño o niña víctima en redes de explotación.
En 2023, el Ministerio del Interior registró 525 denuncias por hechos relacionados con el grooming, lo que supone un incremento significativo respecto a las 408 denuncias registradas el año anterior. Sin embargo, el informe indica que las cifras reales son mucho más preocupantes: el 33% de los y las jóvenes habían tenido contacto con una persona adulta con fines sexuales en el entorno digital. Es más habitual entre chicas (36%) que chicos (26%).
La encuesta confirma también la variedad de vías de contacto usadas por los explotadores: redes sociales como Instagram (68%) o X (44%), aplicaciones de mensajería como WhatsApp (48%), juegos online y streaming (44%). La mitad de los jóvenes consideran peligroso el contacto con desconocidos, pero solo uno de cada tres ve el envío consentido de imágenes íntimas a personas adultas como un riesgo.
En la encuesta, un 26% de jóvenes indicó que, siendo menores de edad, fueron presionados para enviar contenido íntimo o sexual; un 20% sufrió amenazas o chantajes para mostrar contenido erótico o sexual; y casi el mismo porcentaje fue amenazado o chantajeado con la difusión de materiales de contenido sexual en los que aparecían. Las chicas reportaron con mayor frecuencia haber sido presionadas para enviar este tipo de contenido: un 28,5%, frente a un 18,4% de los chicos.
En cuanto a la tipología de los agresores, Save the Children señala que, aunque no existe un perfil único, sí se pueden encontrar patrones comunes: la mayoría son hombres (el 93,4% de los detenidos e investigados por delitos de grooming en 2023 en España, según datos del Ministerio del Interior), la franja de edad más común es de 18 a 25 años (con una media de 28 años), pueden actuar solo en el entorno digital (análisis oficiales indican que solo el 34% busca encuentros presenciales), no ocultan su identidad, lo que puede generar una falsa sensación de confianza, y no siempre son personas desconocidas (el 35% de los casos pertenece al entorno cercano del niño, niña o adolescente).