Agencias/Ciudad de México.- El Gobierno laborista británico, que llegó al poder en julio de 2024, ha prometido reducir a la mitad la violencia contra las mujeres y las niñas en un plazo de diez años.
El Ejecutivo anunció la tipificación del delito que castiga la creación de imágenes de carácter sexual generadas con inteligencia artificial.
Según informó en un comunicado, cualquier persona que tome fotos o videos íntimos sin el consentimiento de otros, o que instale equipos para capturar estas imágenes en un vestuario o baño, por ejemplo, se enfrentará a una pena de hasta dos años de prisión.
Alex Davies-Jones, secretaria de Estado para las Víctimas, reconoció a la cadena Sky News que había “lagunas en la ley existente” y que era necesario ampliarla y “aclararla”.
“Una de cada tres mujeres británicas es víctima del intercambio de imágenes íntimas, a veces llamado ‘pornografía de venganza’. Es horrible y hace vulnerables a las mujeres, las intimida. Por ello, los que perpetren este crimen merecen sentir todo el peso de la ley”, señaló Davies-Jones.
Desde 2023, está prohibido en Reino Unido compartir imágenes íntimas de una persona, incluidos los “deepfakes” creados con IA, pero su creación no estaba todavía tipificada como delito, excepto en ciertos casos específicos, como tomar una foto debajo de la falda de una mujer.
La publicación de estas imágenes sin el consentimiento de sus víctimas va en aumento debido a la proliferación de herramientas de IA de bajo costo, incluidas las aplicaciones de retoque de fotos en teléfonos que permiten, por ejemplo, desnudar a las mujeres.
“Las empresas también deben actuar. Las plataformas que tengan estos contenidos estarán sujetas a una supervisión más estricta y a importantes sanciones”, advirtió la secretaria de Estado de Tecnología, Margaret Jones.
Las imágenes íntimas deepfake comprenden medios sintéticos manipulados digitalmente para representar a personas reales de manera sexualizada. Crearlas se está volviendo cada vez más sencillo y se necesitan menos fotos para generar una imagen realista. Un informe señala un aumento del 550% de los videos deepfake online desde 2019; su gran mayoría son representaciones sexualizadas de individuos reales y tienen como objetivo a mujeres.
Las imágenes íntimas deepfake son un problema mundial. Hay informes sobre mujeres políticas de Bangladesh, Pakistán, Italia, Estados Unidos, Irlanda del Norte y Ucrania que fueron víctimas de esto. Periodistas, defensores de derechos humanos y celebridades también son blancos habituales.
Sin embargo, cualquier persona puede ser víctima de las imágenes íntimas deepfake. Hace poco hubo incidentes en Estados Unidos y España en los que niños y adolescentes fueron víctimas de imágenes íntimas deepfake.
Los expertos a los que consultó el Consejo destacaron que este contenido puede ser particularmente dañino en comunidades socialmente conservadoras. Por ejemplo, se informó que una mujer de 18 años murió porque su padre y su tío le dispararon en Kohistan, una región remota de Pakistán, luego de que se hiciera viral una foto alterada digitalmente de ella con un hombre.
Tanto la India como Estados Unidos consideraron la sanción de leyes y anunciaron la elaboración de planes adicionales para regular el contenido deepfake. En un comentario público, Rakesh Maheshwari, un alto exfuncionario del Gobierno especialista en derecho cibernético, explicó cómo las leyes actuales de la India sobre medios sociales podrían aplicarse al contenido del primer caso (ver PC-27029).
En un comentario público, la ONG Breakthrough Trust también explicó que en la India “las mujeres con frecuencia enfrentan victimización secundaria” cuando acceden a los servicios de policía o tribunales donde les preguntan por qué subieron fotos de ellas mismas a internet en primer lugar, incluso cuando se trata de imágenes deepfake (ver PC-27044).
Según Meta, los bancos de Media Matching Service (MMS) identifican el contenido publicado en sus plataformas, en este caso imágenes, y toman medidas al respecto. Una vez que se determina que cierto contenido se debe incluir en el banco, se convierte en una cadena de datos, es decir, se cifra.
Los datos cifrados luego se asocian con un banco en particular. Los bancos de MMS de Meta se crearon para alinearse con políticas específicas de las Normas comunitarias y no están diseñados en torno a comportamientos específicos o tipos de contenido como aquel con retoque fotográfico sexualizado y despectivo. Estos bancos pueden identificar y eliminar automáticamente imágenes que los revisores determinan que infringen las reglas de la empresa.
Aunque el acoso y la intención de molestar son dos de esas razones, los usuarios a menudo también están motivados por el deseo de aumentar el público en la plataforma, monetizar su página o dirigir a los usuarios a sitios fuera de la plataforma, como sitios y servicios de pornografía o sitios web de clickbait.
Por lo tanto, la política de explotación sexual de adultos sería un lugar más claro y lógico donde incluir estas prohibiciones. Esta política se centra en imágenes que se comparten sin consentimiento y contiene la prohibición sobre el intercambio de imágenes íntimas no consensuadas que evidentemente es un problema muy similar. Meta también debería considerar cambiar el nombre de esta política a uno más detallado y claro para los usuarios como “contenido sexual no consensuado”.