Grok generó hasta 4.4 millones de imágenes sexualizadas en solo 9 días: The New York Times
COMPARTIR
The New York Times recordó que el 8 de enero, X limitó la creación de imágenes de IA de Grok a los usuarios que pagan por algunas características premium, reduciendo significativamente el número de imágenes
Grok, la herramienta de Inteligencia Artificial (IA) de X creada por Elon Musk, generó y publicó 4.4 imágenes en solo unos días. De este total, el 41 por ciento (alrededor de 1.8 millones) fueron para sexualizar a mujeres, de acuerdo con estimaciones de The New York Times.
Por su parte, Centro para Contrarrestar el Odio Digital registró que en el 65 por ciento (poco más de tres millones) se cometió el mismo agravio contra niños, niñas y hombres.
TE PUEDE INTERESAR: Grok reconoce fallas de seguridad tras difusión de imágenes modificadas de menores en X
El alza comenzó en la segunda mitad del mes de diciembre, cuando usuarios de esa red social ‘inundaron’ la plataforma de solicitudes para la alteración de fotografías de mujeres e infancias, “para quitarles la ropa, ponerlos en bikinis y posarlos en posiciones sexuales, lo que provocó una protesta global de las víctimas y los reguladores”, expuso el medio estadounidense.
Aparentemente, el interés de los usuarios se incrementó luego de que el propio Elon Musk compartió una fotografía de él en bikini, generada con Grok y compartida el 31 de diciembre. Otro caso, fue cuando el magnate creó con la herramienta un cohete de SpaceX con el cuerpo desnudo de una mujer superpuesto en la parte superior.
MILLONES DE IMÁGENES GENERADAS EN SOLO NUEVE DÍAS
En un periodo de tiempo de solo 9 días, Grok cumplió con las 4.4 millones de solicitudes, superando las colecciones de deepfakes sexualizados, o imágenes realizas generadas por IA de otros sitios web, según especialistas.
“Esto es un abuso a escala industrial de mujeres y niñas”, dijo Imran Ahmed, director ejecutivo del Centro para la Lucha contra el Odio Digital, que realiza investigaciones sobre el odio y la desinformación en línea. “Ha habido herramientas nudizantes, pero nunca han tenido la distribución, la facilidad de uso o la integración en una gran plataforma que Elon Musk hizo con Grok”.
Resulta importante mencionar que el chatbot tiene una cuenta pública en X, donde los usuarios pueden hacerle preguntas o solicitar alteraciones a las imágenes. Los internautas acudieron en masa al sitio, en muchos casos pidiendo a Grok que se quitara la ropa en imágenes de mujeres y niños, después de lo cual el bot publicó de forma generalizada las imágenes.
TE PUEDE INTERESAR: Hay una solución fácil para el problema de la pornografía con IA en opinión de Riana Pfefferkorn
Los hallazgos muestran la rapidez con la que Grok difundió imágenes inquietantes, lo que anteriormente llevó a los gobiernos de Gran Bretaña, India, Malasia y los Estados Unidos a iniciar investigaciones sobre si las imágenes violaban las leyes locales.
USUARIOS CON X PRO Y REDUCCIÓN DE SOLICITUDES
The New York Times recordó que el 8 de enero, X limitó la creación de imágenes de IA de Grok a los usuarios que pagan por algunas características premium, reduciendo significativamente el número de imágenes. La semana pasada, X amplió esas barandillas, diciendo que ya no permitiría a nadie solicitar la cuenta X de Grok para “imágenes de personas reales en ropa reveladora como bikinis”.
“Seguimos comprometidos a hacer de X una plataforma segura para todos y seguimos teniendo tolerancia cero para cualquier forma de explotación sexual infantil, desnudez no consentida y contenido sexual no deseado”, dijo la compañía en X la semana pasada.
Desde entonces, Grok ha ignorado en gran medida las solicitudes de vestir a las mujeres con bikinis, pero ha creado imágenes de ellas en leotardos y trajes de baño de una pieza. Las restricciones no se extendieron a la aplicación o el sitio web de Grok, que sigue permitiendo a los usuarios generar contenido sexual en privado.
ANÁLISIS DE THE NEW YORK TIMES Y EL CENTRO PARA LA LUCHA CONTRA EL ODIO DIGITAL
El Times utilizó dos modelos de IA para analizar 525.000 imágenes publicadas por Grok del 1 al 7 de enero. Un modelo identificó imágenes que contenían mujeres, y otro modelo identificó si las imágenes eran de naturaleza sexual. Luego se revisó manualmente una selección de las publicaciones para verificar que los modelos habían identificado correctamente las imágenes.
TE PUEDE INTERESAR: Reino Unido va tras X por las imágenes sexualizadas de Grok
Por separado, el Centro para la Lucha contra el Odio Digital recopiló una muestra aleatoria de 20.000 imágenes producidas por Grok entre el 29 de diciembre y el 8 de enero, y descubrió que alrededor del 65 por ciento de las imágenes estaban sexualizadas. La organización identificó 101 imágenes sexualizadas de niños. Extrapolando el total, el grupo estimó que Grok había producido más de tres millones de imágenes sexuales, incluidas más de 23.000 imágenes de niños.
(Con información de The New York Times)