Imágenes sexualizadas con solo unos clics: una práctica impulsada por la IA que gana terreno entre los jóvenes en EE.UU.
2026-03-19 - 15:00
MADRID.- El uso de inteligencia artificial generativa para producir imágenes sexualizadas se convirtió en una práctica habitual entre adolescentes en Estados Unidos. Así lo señala una investigación publicada este miércoles en la revista PLOS One. El estudio, basado en una encuesta nacional anónima a jóvenes de 13 a 17 años, indica que más de la mitad de los participantes había utilizado al menos una vez una herramienta o sitio web para retocar la foto de una persona real, un proceso llamado deepfake. Mientras, también uno de cada dos aseguró haber recibido alguna. Los resultados indican que el 55,3% de los participantes afirmó haber creado este contenido y otro 54,4% recibió al menos una en una muestra de 557 personas. La investigación, liderada por Chad Steel, experto en comportamiento digital de la Universidad George Mason (EE UU), puso también el foco sobre las víctimas. Un 36,3% de los participantes afirmó que se había generado una imagen suya sin consentimiento. Y otro 33,2% indicó que al menos una de estas imágenes había sido compartida a otras personas. Aunque el fenómeno afecta a todos los grupos demográficos, los resultados muestran que los hombres jóvenes participan más activamente en la creación y distribución de este tipo de contenido que sus pares mujeres. El estudio advierte que estas cifras podrían ser solo una estimación mínima y que muchos adolescentes no son conscientes del alcance real de la difusión de esas imágenes. Para Steel, se trata de un fenómeno global y difícil de abordar. “Los adolescentes son más propensos a tener todo tipo de comportamientos problemáticos y, aunque existen indicios, no sabemos con seguridad cuántos pueden estar usándolas”, advierte. Una tecnología que aprende de una sociedad desigual Lledó Museros, experta en el estudio de sesgos de género en técnicas de IA, recuerda que ya existen evidencias de que estos sistemas tienden a representar más a las mujeres de forma sexualizada. “Se representa el cuerpo femenino como un objeto visual y se prioriza para la atracción masculina”, explica. Un fenómeno que responde a lo que se conoce como male gaze o mirada masculina. “La IA es mejor generando desnudos de cuerpos estereotipados, como mujeres blancas con buen cuerpo. Lo que hace es solo reproducir la lógica cultural dominante”, apunta. Los sistemas de inteligencia artificial necesitan enormes volúmenes de información para funcionar y la ingeniera sostiene que esta información masiva no es ajena a los sesgos que existen en nuestra sociedad. Y esa sociedad, advierte, “es sesgada por naturaleza”. “Si quieres una persona que sea un profesional de la ingeniería, probablemente te va a predecir que es un hombre”, explica Museros. “No es que la IA sea desigual o malvada, si no que amplifica nuestras desigualdades”, afirma. El impacto en las víctimas es profundo La investigación sugiere que, al igual que ocurrió con el sexting en la década pasada, la creación y el intercambio de imágenes sexualizadas creadas con IA se están integrando en la exploración social y sexual adolescente. La psicóloga Natalia Bueso-Izquierdo apunta a factores culturales: las redes sociales dejaron de ser solo un canal de comunicación. “Es un espacio de identidad y validación”, afirma. Las consecuencias emocionales en las víctimas, apunta, son comparables a otras formas de violencia de género. “Aunque las imágenes sean falsas o manipuladas, el impacto en la víctima es real y profundo”, subraya. Según esta experta, ser víctima puede generar una reacción en cadena: evitar las redes sociales, producir aislamiento e incluso la retirada del contacto social. Además de problemas de ansiedad, estrés o sentimientos de vergüenza y de culpa. Todos derivados tanto del miedo a la difusión como del posible juicio social. En los últimos años proliferó en internet los sitios y aplicaciones que permiten a las personas crear imágenes no consentidas y abusivas de mujeres y niñas, incluido Material de Abuso Sexual Infantil (MASI). Tres millones de imágenes de contenido sexual explícito fueron generados solo por Grok, la inteligencia artificial generativa propiedad de Elon Musk, entre el 29 de diciembre y el 8 de enero. La investigación del Centro para Contrarrestar el Odio Digital (CCCDH, por sus siglas en inglés) apunta que al menos 23.000 mostraban a menores. El uso se populariza, la violencia se normaliza y sus creadores generan ganancias millonarias. Un análisis de 85 sitios web de nudismo realizado por Indicator, una publicación que investiga el engaño digital, encontró que la mayoría de estas plataformas dependen de grandes emporios tecnológicos para permanecer en línea —como Google, Amazon y Cloudflare—. De acuerdo con los investigadores, estos sitios habrían generado colectivamente hasta 36 millones de dólares con 18,5 millones de visitantes en cada uno de los primeros seis meses del 2025. Los gobiernos de la Unión Europea acordaron la semana pasada solicitar la prohibición de los sistemas de inteligencia artificial capaces de producir pornografía. La iniciativa, impulsada por España, se integra en el proceso de revisión normativa que busca reforzar el marco regulatorio europeo. La aprobación dependerá ahora de la negociación con el Parlamento y se da en el marco de la reforma de la Ley de Inteligencia Artificial, cuyas conversaciones comenzarán a principios de abril. Para Lledó Museros, la respuesta también pasa por la educación. “Tiene que ser una asignatura”, advierte. Propone actuar en dos frentes. Por un lado, enseñar un uso ético de la tecnología. Y por otro, mayor educación sexual. “Los chicos a partir de los ocho o nueve años ya reciben mensajes sexualizados brutales”, advierte. Corregir el problema no es sencillo. Aun así, alerta de las consecuencias de no actuar: “Si no los corregimos, la IA no solo reflejará la violencia y desigualdad, sino que la hará más rápida, más fácil y más difícil de combatir”.