Expertos temen que a través de IA las mujeres puedan ser presas de la pornografía deepfake

Internacional
/ 18 abril 2023

Si bien, las imágenes creadas con inteligencia artificial pueden utilizarse para crear arte o ayudar a diseñar una campaña publicitaria, también pueden usarse para dañar y hacer pornografía deepfake

AP Nueva York- Actualmente a los expertos están preocupados por la posibilidad de que el lado más oscuro de estas herramientas que son de fácil acceso pueda ser usadas para dañar fundamentalmente a las mujeres, a través de la pornografía deepfake no consensuada.

Las imágenes deepfake son aquellas que se fueron creadas o alteradas digitalmente usando la inteligencia artificial. La pornografía desarrollada con esta tecnología inició a divulgarse por internet hace varios años, cuando un usuario de Reddit compartió videos en donde se colocaban rostros de celebridades femeninas sobre los hombros de actores porno.

TE PUEDE INTERESAR: Tras el robo de fotos desnuda, senadora de Florida promueve ley para castigar este delito

Siendo así que desde entonces, los creadores de deepfakes han publicado tanto videos como imágenes similares que están dirigidos a personas influyentes, así como a periodistas y otras personas con un perfil público. Existen miles de videos en una gran variedad de sitios web. En algunos de estos se ofrece a los usuarios la oportunidad de crear sus propias imágenes, con lo que se le da la oportunidad a las personas a que cualquiera convierta a quien desee en sus fantasías sexuales sin su consentimiento, o que haga uso de la tecnología para dañar a sus exparejas.

En opinión de los expertos, este problema se incrementó debido a se hizo más fácil poder hacer deepfakes sofisticados y visualmente atractivos. Y consideran que esta situación podría empeorar con el desarrollo de herramientas de inteligencia artificial generativa.

$!Noelle Martin de 28 años, encontró pornografía falsa de sí misma hace 10 años cuando, por curiosidad, un día usó Google para buscar una imagen de ella.

La realidad es que la tecnología continuará proliferando, continuará desarrollándose y seguirá siendo tan fácil como presionar un botón”, aseguró Adam Dodge, fundador de EndTAB, un grupo que brinda capacitación sobre abusos habilitados por la tecnología a la Agencia The Associated Press.

En respuesta a esta situación, algunos modelos de inteligencia artificial afirmaron que ya están restringiendo el acceso a imágenes explícitas.

Por su pate, OpenAI, comentó a AP, que decidió eliminar el contenido explícito de los datos utilizados para entrenar la herramienta de generación de imágenes DALL-E, con lo que se limita la capacidad de los usuarios para crear ese tipo de imágenes. Además, la compañía filtra las solicitudes y precisó que bloquea a los usuarios para que no creen imágenes de inteligencia artificial de celebridades y políticos prominentes.

Así mismo, Midjourney, que es un laboratorio independiente de investigación que usa un programa de inteligencia artificial con el que sus usuarios tienen la oportunidad de crear imágenes a partir de descripciones textuales, bloquea el uso de ciertas palabras clave y exhorta a los usuarios a señalar las imágenes problemáticas a los moderadores.

Por último, la startup Stability AI lanzó una actualización en noviembre pasado con la que elimina la capacidad de crear imágenes explícitas utilizando su generador de imágenes Stable Diffusion. Estos cambios se llevaron a cabo después de que se dio a conocer que algunos usuarios estaban creando imágenes de desnudos inspiradas en celebridades utilizando su tecnología.

Con información de la Agencia The Associated Press.

COMENTARIOS

Selección de los editores