Agencias, Ciudad de México.- Las imágenes creadas con inteligencia artificial se pueden utilizar para crear arte, probarse ropa en probadores virtuales o ayudar a diseñar campañas publicitarias.
Pero los expertos temen que el lado más oscuro de estas herramientas de fácil acceso pueda empeorar algo que daña principalmente a las mujeres: la pornografía deepfake no consensuada.
Las imágenes deepfake son aquellas que se han creado o alterado digitalmente con inteligencia artificial. La pornografía creada con esta tecnología comenzó a difundirse por internet hace varios años cuando un usuario de Reddit compartió clips donde se colocaban rostros de celebridades femeninas sobre los hombros de actores porno.
Desde entonces, los creadores de deepfakes han difundido videos e imágenes similares dirigidos a personas influyentes en línea, periodistas y otras personas con un perfil público. Existen miles de videos en una gran cantidad de sitios web. Y algunos han estado ofreciendo a los usuarios la oportunidad de crear sus propias imágenes, esencialmente permitiendo que cualquiera convierta a quien desee en fantasías sexuales sin su consentimiento, o use la tecnología para dañar a sus exparejas.
ANNOUNCEMENT
Now anyone can use Stable Diffusion XL, our latest text-to-image generative AI model, on our Clipdrop platform, for free!
Test the limits of your creativity. #SDXL
Try it here → https://t.co/FP57AeLqAN pic.twitter.com/RCZsbtn7yt
— Stability AI (@StabilityAI) April 14, 2023
Las imágenes creadas con inteligencia artificial se pueden utilizar para crear arte, probarse ropa en probadores virtuales o ayudar a diseñar campañas publicitarias.
Pero los expertos temen que el lado más oscuro de estas herramientas de fácil acceso pueda empeorar algo que daña principalmente a las mujeres: la pornografía deepfake no consensuada.
Las imágenes deepfake son aquellas que se han creado o alterado digitalmente con inteligencia artificial. La pornografía creada con esta tecnología comenzó a difundirse por internet hace varios años cuando un usuario de Reddit compartió clips donde se colocaban rostros de celebridades femeninas sobre los hombros de actores porno.
Desde entonces, los creadores de deepfakes han difundido videos e imágenes similares dirigidos a personas influyentes en línea, periodistas y otras personas con un perfil público. Existen miles de videos en una gran cantidad de sitios web. Y algunos han estado ofreciendo a los usuarios la oportunidad de crear sus propias imágenes, esencialmente permitiendo que cualquiera convierta a quien desee en fantasías sexuales sin su consentimiento, o use la tecnología para dañar a sus exparejas.
Mientras tanto, la startup Stability AI lanzó una actualización en noviembre que elimina la capacidad de crear imágenes explícitas utilizando su generador de imágenes Stable Diffusion. Esos cambios se produjeron después de los informes de que algunos usuarios estaban creando imágenes de desnudos inspiradas en celebridades utilizando la tecnología.
♫ EXCITING ANNOUNCEMENT! ♫@StabilityAI
proudly partners with the iconic@itspetergabriel
for a once in a bluemoon AI animation challenge! #diffusetogether I/O edition is the 1st in a series and an opportunity to co-create in this multimodal challenge using AI & Peter's music pic.twitter.com/WZgs0bJlNz— Stability AI (@StabilityAI) April 18, 2023












