Agencias, Ciudad de México.- Las imágenes manipuladas de la cantante Taylor Swift que a finales de enero proliferaron en redes sociales como X (antigua Twitter) salieron de un reto lanzado en el foro 4Chan, que buscaba la forma de sortear los principales barreras que las herramientas de inteligencia artificial generativa implantan para evitar el contenido dañino.
Las redes sociales se llenaron de imágenes de Taylor Swift desnuda, aparentemente reales, que en realidad eran fotografías retocadas con herramientas de IA generativa, conocidas como ‘deepfakes‘, que suplantaron la imagen de la cantante sin su conocimiento ni consentimiento.
Esta difusión masiva se rastreó inicialmente hasta un foro en la plataforma de mensajería Telegram, donde sus miembros comparten fotografías de mujeres que han desnudado con herramientas como Microsoft Designer, que solo requieren una descripción en texto para ofrecer un resultado.
La compañía de análisis de redes sociales Graphika apunta ahora a que el origen se encuentra en el foro anónimo 4Chan. En concreto, en un reto ‘online’ que animaba a los participantes a saltarse los filtros de seguridad que herramientas populares como Microsoft Designer DALL-E de OpenAI tienen para evitar un maluso de la IA generativa, como recogen en Bloomberg.
Graphika shared our findings with @rollingstone on the recent trend of explicit AI-generated images of celebrities, this time targeting pop star @taylorswift13. https://t.co/jYIRYejYcF
— Graphika (@Graphika_NYC) February 6, 2024
La finalidad era usar esas herramientas para crear imágenes de desnudos protagonizados por mujeres conocidas, como artistas o del mundo de la política. Posteriormente, las imágenes de Taylor Swift se trasladaron a Telegram y de ahí a la red social X, donde se distribuyeron de forma masiva.
Aunque X y otras redes sociales eliminaron las imágenes falsas de la cantante, e incluso impidieron las búsquedas con palabras clave relacionadas, en la plataforma propiedad de Elon Musk fueron tendencia varias horas. Antes de empezar a retirarlas, una de las publicaciones alcanzó los 45 millones de visualizaciones y las 24,000 republicaciones, e incluso registró cientos de miles de Me Gusta y marcadores, según apuntaron en The Verge.
“Estas imágenes se originaron en una comunidad de personas motivadas por el ‘desafío’ de eludir las salvaguardas de los productos de IA generativa, y las nuevas restricciones se ven como un obstáculo más para la ‘derrota'”, ha explicado la analista sénior de Graphika Cristina López G., en declaraciones a Bloomberg. “Es importante comprender la naturaleza gamificada de esta actividad maliciosa para evitar más abusos en el origen”, ha apostillado.
El ‘deepfake’ difumina los límites entre la realidad y la ficción al transformar con gran realismo la apariencia y la voz de las personas, lo que plantea cuestiones sobre la veracidad de lo que se está viendo, con la capacidad para dañar la imagen de aquellos a los que ha suplantado.
This story is a prime example of why we need to get ahead of the risks posed by AI. That’s why I’m cosponsoring the Preventing Deepfakes of Intimate Images Act to stop the spread of intimate images altered by AI. https://t.co/VEeEXV3ocm
— Val Hoyle (@RepValHoyle) February 7, 2024