Una empresa de Elon Musk fue denunciada por pornografía con niños

Grok X (AFP -)

Tres adolescentes —dos de ellas menores de edad— de Tennessee, Estados Unidos, presentaron una denuncia contra la empresa de inteligencia artificial xAI, propiedad de Elon Musk, por haber habilitado la generación de imágenes y videos falsos de ellas desnudas, que luego fueron distribuidos como pornografía con niños. Página/12 accedió al documento de la denuncia presentada ante un tribunal federal del Distrito Norte de California. En el texto se afirma que “xAI –y su fundador, Elon Musk– habrían identificado una oportunidad comercial: obtener beneficios a partir de la explotación sexual de personas reales, incluidos menores“, y aclaran que “la demanda sostiene que la empresa sabía que el sistema podía producir ese tipo de resultados, incluso con imágenes de menores, y aun así lo puso a disposición del público“.

La denuncia gira en torno a Grok, un sistema de xAI que, entre otras funciones, puede generar imágenes a partir de la introducción de texto. Las investigaciones y denuncias respecto a que esta IA permitía la generación de imágenes pornográficas que incluían a menores de edad no son nuevas, y Grok fue señalada, por ejemplo, por el portal de tecnología Wired como uno de los sistemas más permisivos. Sin embargo, en enero pasado el magnate sostuvo que “no tenía conocimiento de ninguna imagen de menores desnudos generada por Grok. Literalmente ninguna”.

xAI optó por lucrar con la depredación sexual de personas reales, incluidos niños, a pesar de conocer perfectamente las consecuencias de crear un producto tan peligroso”, afirmó Vanessa Baehr-Jones, una de las abogadas de las querellantes mediante un comunicado. Annika K. Martin, otra abogada denunciante, agregó que “se trata de niñas cuyas fotografías escolares y familiares fueron convertidas en material de abuso sexual de niños por la herramienta de IA de una empresa multimillonaria y luego intercambiadas entre depredadores. Elon Musk y xAI diseñaron deliberadamente Grok para producir contenido sexualmente explícito con fines de lucro, sin tener en cuenta a los niños y adultos que resultarían perjudicados”.

La historia de una denunciante

El texto de la denuncia cuenta que Jane Doe 1 –el modo en que se identifica a una de las denunciantes para preservar su identidad– recibió un mensaje de un usuario anónimo de Instagram con imágenes manipuladas mediante IA de ella y otras dos adolescentes que ella conocía, con contenido sexual explícito. También le envió un enlace de la red social Discord que contenía imágenes y videos de otras 18 menores de edad, que Jane reconoció de la escuela. Las imágenes pornográficas habían sido creadas a partir de fotos publicadas en distintas redes sociales.

La investigación policial logró identificar al hombre que había generado las imágenes y confirmaron que tenía acceso al Instagram de Jane. La pesquisa del teléfono del perpetrador confirmó que tenía instalada una aplicación que tenía la licencia y el acceso a Grok, y concluyó que era la que había utilizado para manipular con IA las fotos de las adolescentes. Las imágenes habían sido subidas a una plataforma para compartir archivos y después fueron difundidas por Telegram con cientos de usuarios, en grupos en los que se intercambiaban imágenes pornográficas también generadas con IA.

En la denuncia, las abogadas enumeran las consecuencias que sufrió esta adolescente: “tiene dificultades para comer y dormir y sufre pesadillas recurrentes. Vive con el temor de que el perpetrador continúe generando contenido pornográfico adicional utilizando las mismas herramientas de xAI para modificar sus imágenes, y de que otros depredadores de menores continúen intercambiando en línea estas imágenes generadas por IA que la representa”. En el texto se advierte que las imágenes circularon entre miles de usuarios, y para muchos no está claro que son fotos y vídeos alterados digitalmente –lo que se denomina deepfakes–, de modo que pueden pensar que son reales y que ella estuvo de acuerdo en producirlas.

El argumento de la denuncia

El argumento que desde hace meses utiliza Musk para desligarse de estas acusaciones es que Grok no permite la generación de ese tipo de imágenes. Las demandantes le respondieron que xAI vende licencias y acceso a su tecnología a terceros que sí lo hacen, y que incluso les vende espacio en sus servidores para almacenar imágenes. De esta forma, la empresa de Musk genera ganancias mediante la venta de su tecnología a páginas o aplicaciones que sí producen imágenes pornográficas. Y él lo sabe.

El texto de la denuncia apunta, en primer lugar, a que la alteración de imágenes mediante IA es una forma de producción de pornografía con niños porque implica “la transformación, adaptación o modificación de imágenes y videos de niños reales, conservando sus características identificables para producir contenido sexualmente explícito”.

También advierte que esta producción “se realizó con la intención de distribuir las imágenes pornográficas resultantes al cliente solicitante a través de una aplicación de licencia” y, según la información recogida, “xAI poseía las imágenes de pornografía de los demandantes en sus servidores“, que luego “transportó y distribuyó el contrabando ilícito a su cliente/usuario, es decir, el perpetrador, utilizando la aplicación intermediaria o de terceros”.

Los comentarios están cerrados.