¿‘Nudes’ con inteligencia artificial? Conoce StopNCII, el sitio que protege contenido íntimo de la IA

Tech
/ 7 agosto 2023

Esta herramienta fue creada por Meta, sin embargo, ya opera de manera independiente, y participan sitios como Bumble, Threads y OnlyFans

La inteligencia artificial es una de las “armas” tecnológicas más innovadoras de esta época, sin embargo, también una herramienta que, en manos de la persona equivocada, podría ser altamente peligrosa; sitios de imágenes hiperrealistas como Stable Difussion o Midjourney son un claro ejemplo.

Desde deepfakes o imágenes falsificadas de contenido íntimo, o “nudes”, son una de las formas más típicas de cometer este delito, para el cual aún no hay leyes estrictas que lo castiguen. Por ello, se ha vuelto más común manipular imágenes casuales y convertirlas en una fotografía íntima.

TE PUEDE INTERESAR: Expertos temen que a través de IA las mujeres puedan ser presas de la pornografía deepfake

En algunas ocasiones, este acto es conocido como “revenge porn” o “pornografía de venganza/vengativa”; se trata de la difusión no consensuada de imágenes o videos sexualmente explícitos de una persona, y tiene el propósito de causar daño, vergüenza o humillación hacia la víctima, generalmente después de que una relación íntima haya terminado.

Sin embargo, también ha sido una práctica que, a causa de la inteligencia artificial, no depende de un vínculo emocional, pues incluso celebridades y persona con cuentas públicas en redes sociales, han sido víctimas de imágenes falsificadas.

STOPNCII, LA RESPUESTA DE META

En conjunto con otras 50 organizaciones sin ánimo de lucro, a nivel global, junto con la Revenge Porn Helpline en el Reino Unido, una línea de ayuda, a crear StopNCII para dar seguimiento a este tipo de casos para enfocarse a combatir el intercambio no consensuado de contenido íntimo; esto sucedió el pasado 2021.

No obstante, se hicieron algunas mejoras, por ejemplo, ya no se tienen qué subir los videos o fotografías íntimas ni compartirlas con nadie. Ahora, la herramienta, también creada con inteligencia artificial, emplea tecnología avanzada para generar un “hash”, es decir, una serie de números y letras que se guardarán en la plataforma. Enseguida, se le asignará un código numérico único a las imágenes para crear una huella digital segura.

TE PUEDE INTERESAR: Actriz de ‘Wandavision’ acusa a Marvel Studios de escanear a actores con IA para usar su imagen sin remuneración

“Tú solamente puedes generar un PIN, la plataforma no se queda con ninguna información tuya, no hay forma de atar el hash a una persona, tú simplemente te quedas con ese código de acceso que tú creaste”, detalló MC Capelo.

Una vez generado este código, cuando un usuario de Facebook o Instagram intente subir material a las plataformas, el archivo se bloqueará en automático: “Si lo bloqueamos, le avisamos a StopNCII y le avisamos que bloqueamos un archivo con ese hash y en tu estatus como usuario vas a ver que una de las empresas participantes encontró un match y lo logró bloquear”.

Esta herramienta se dirige a adultos mayores de 18 años, sin embargo, menores de edad serán redirigidos a un proceso diferente, donde se explica un poco más sobre las imágenes de explotación infantil.

”Con una tasa de eliminación de más del 90%, RPH ha eliminado con éxito más de 200,000 imágenes íntimas individuales compartidas sin consentimiento de Internet”, señala StopNCII en su sitio web, además, recuerdan que Facebook, Instagram, TikTok, Bumble, Reddit, OnlyFans y Threads son empresas participantes y, como ya es independiente de Meta, podría abrirse a otras plataformas.

Cabe destacar que la implementación de programas como este viene de una amplia preocupación por la salud de las personas, especialmente, porque el 96 por ciento de videos falsos o “deepfakes” no consentidos en línea involucran a mujeres, según un informe de AFP.

En México, organizaciones como Cultivando Género, Defensoras Digitales Baja California, Consejo Ciudadano y la Red Interamericana de Refugios, apoyaron la creación de la herramienta, asimismo, acompañarán en el proceso a quien lo necesite.

TE PUEDE INTERESAR: ¿Qué podemos hacer cuando la inteligencia artificial miente sobre nosotros?

“Si necesitaras tener un acompañamiento psicológico o psicoemocional lo puedes buscar, las organizaciones participantes van a estar en la sección de recursos”, agregó MC.

COMENTARIOS

Selección de los editores