Uso de IA para desnudar mujeres

Las Inteligencias Artificiales generativas son utilizadas para “desnudar” mujeres en imágenes en las que están vestidas.

IA (Archivo -)

Las Inteligencias Artificiales generativas de Google y OpenIA fueron utilizadas por usuarios para cargar imágenes de mujeres reales vestidas y transformarlas en imágenes de ellas en bikini sin su consentimiento, a pesar de que, según estas empresas, es una actividad que no está permitida por las plataformas. Esto se suma a una tendencia que ocurre desde al menos dos años a través de portales que venden esta forma de producir imágenes de mujeres semidesnudas o desnudas –más allá de muchos fueron bloqueados–, apoyados en las tecnologías de las empresas más importantes del sector como Amazon, Cloudflare o PayPal.

La producción de imágenes con IA –lo que se denomina deepfake— avanza a gran velocidad y las empresas que las diseñan flexibilizan los controles para permitir que los usuarios experimenten sin límites. En este caso, todo comenzó con un posteo en Reddit –una red de foros online– sobre cómo utilizar el modelo de generación de imágenes de Gemini, la IA de Google, para cargar fotos de mujeres con ropa y que aparezcan en bikini.

Si bien la mayor parte de las imágenes generadas que aparecieron en el foro eran ciento por ciento producto de la IA, algunas respuestas empezaron a llamar la atención. En particular la de un usuario que subió una imagen de una mujer con un sari hindú –la vestimenta tradicional que utilizan las mujeres en India–, pidió que se lo sacaran y le pusieran una bikini. Otro usuario respondió con una imagen que cumplía exactamente con ese pedido.

El portal de noticias de tecnología Wired notificó a Reddit acerca de esos comentarios, y la red-foro eliminó el posteo. “Las reglas del sitio Reddit prohíben las imágenes íntimas no consensuadas, incluyendo el posteo en cuestión”, dijo un vocero del foro. Sin embargo, el usuario que hizo el posteo tenía más de 200 mil seguidores antes de que se eliminara la publicación.

Desde Wired hicieron pruebas en Gemini y ChatGPT para ver si las plataformas permitían “desnudar mujeres”, y lograron transformar imágenes de mujeres totalmente vestidas en deepfakes en bikinis, con órdenes simples en inglés a la IA. Voceros de Google afirmaron que la empresa tiene “una política clara que prohíbe usar las herramientas de la IA para generar contenido sexual explícito”, y que esas herramientas están mejorando a la hora de “reflejar” lo que sostiene la empresa en su política.

Desde OpenIA también dieron definiciones sobre este tema. Voceros de la empresa admitieron que la compañía este año flexibilizó algunas restricciones relacionadas a cuerpos de personas adultas en personas no sexuales, y aseguró que los usuarios de ChatGPT tiene estrictamente prohibido alterar imágenes de otra persona sin su consentimiento. Luego aclararon que la empresa tomará medidas contra los usuarios que generen deepfakes explícitos, incluso con bloqueo de cuentas.

De esta forma, las empresas de plataformas continúan con su premisa de “pedir perdón antes de pedir permiso”. Unos meses atrás el portal Indicator hizo una investigación sobre 85 páginas de internet que mediante IA “desnudaban” a las personas en las imágenes y vendían las fotos. Una de las conclusiones a las que llegaron es que estos sitios web se benefician del acceso a los principales proveedores de la infraestructura: “la inspección del código fuente sugiere que Amazon y Cloudflare ofrecen servicios de alojamiento o entrega de contenido a 62 de los 85 nudificadores de nuestra muestra“, afirmaron los autores de la investigación, Alexios Mantzarlis y Santiago Lakatos.

Luego agregaron que Google “habilitó el inicio de sesión simple para 53 de los 85”, directamente o “a través de un intermediario llamado Luxury Fintech, algunos de estos sitios web también utilizan Coinbase, PayPal, Mercuryo y Telegram para aceptar pagos con tarjeta de crédito de sus clientes”.

Los comentarios están cerrados.