Veneno para IA: Así se pueden proteger los artistas contra el robo de la inteligencia artificial
“Nightshade” está diseñada para confundir los modelos de aprendizaje y modificar los resultados que herramientas como Midjourney y Dall-E generarán, haciéndolas inútiles a la larga
La balanza en la guerra contra la inteligencia artificial (IA) se está equilibrando. Luego de que este año iniciara en medio de un generalizado entusiasmo por estas tecnología, que prometen, sobre todo en el ramo de las artes visuales, crear imágenes realistas o incluso copiar el estilo de otros con solo unos cuantos comandos, pronto fue evidente que tal promesa está llena de problemas éticos.
Porque para poder lograr esto, los modelos de generación de imágenes como Stable Diffusion, MidJourney y Dall-E necesitan ser entrenados con billones de muestras recogidas de internet, casi en su totalidad obtenidas sin permiso de los autores, lo que permite la copia y el plagio sin un respaldo legal.
Tal situación comenzó a provocar una discusión que continúa a la fecha, en la que se cuestiona la utilización de estas herramientas, incluso para crear imágenes que no preteden copiar directamente el trabajo de otros, pues para ello los desarrolladores tomaron sin pagar regalías obras ajenas. Una mala práctica que podría cambiar pronto.
Artists, best tool we could have asked for to fight this unprecedented exploitation of our labor is here!
— Katria (@katriaraden) October 23, 2023
Coming from the creators of @TheGlazeProject, Nightshade lets us poison datasets, damage models and teach AI companies to ask for permission first.https://t.co/WurjNDpvsl pic.twitter.com/iEP3TJBhVh
Una solución contra las alimañas
Se está desarrollando un nuevo programa que le permitirá a los artistas hacer cambios minúsculos a los píxeles de sus obras, invisibles para el ojo, pero que corromperán los modelos de aprendizaje de la IA, al grado de que podrían llegar a dejarlos obsoletos.
Este “veneno para IA” es un proyecto denominado “Nightshade” —belladona, en español, una flor venenosa— que es creado por un equipo de la Universidad de Chicago, dirigido por el profesor Ben Zhao, autores también de Glaze, otra herramienta que tiene el mismo fin pero que en su caso enmascara el estilo personal de los artistas para que no pueda ser robado.
“Nightshade” —que esperan implementar dentro de “Glaze”, para que los artistas decidan si quieren o no envenenar la IA— manipula los píxeles y los metadatos de las imágenes de manera que, por ejemplo, los modelos interpreten la imagen de un gato como si fuera un perro, y así se pierda la fidelidad de la imagen resultante, arruinando el producto y con ello la efectividad de dicha herramienta.
“Using it to “poison” this training data could damage future iterations of image-generating AI models, such as DALL-E, Midjourney, and Stable Diffusion, by rendering some of their outputs useless”
— Paloma McClain (@palomamcclain) October 23, 2023
We can turn our artwork into dataset landmines? LET’S GOOOOOOOO NIGHTSHADE! https://t.co/91Oy6TrCGA
Incentivo para apoyar al arte
Zhao comentó para el sitio MIT Technology Review, que pudo probar el sistema y hacer una reseña de él, que mientras más imágenes envenenadas alimenten un sistema más grave será el daño y dado que son billones las que necesita una IA para entrenar su algoritmo, encontrar las que están provocando el fallo es virtualmente imposible.
Más allá de “trollear” o en el peor de los casos volver inútiles a estas herramientas, el objetivo es que las compañías detrás de Midjourney, Dall-E y todas ellas comiencen a entrenar sus modelos pagando los derechos de autor correspondientes a cada artista, porque de lo contrario se arriesgarán a dañar sus productos.
Porque realmente no basta mucho para comenzar a generar afectaciones. Los investigadores hicieron pruebas con menos de 300 imágenes que alimentaron a Stable Diffusion, y solo eso tomó para que un perro empezara a mutar en un gato.
TE PUEDE INTERESAR: Tren Maya colapsará por los daños ambientales que provocó, aseguran especialistas
Además, otra vulnerabilidad de los modelos es que trabajan por asociación, por lo que la palabra “perro” no sería la única afectada, sino que también cualquier sinónimo o vocablo que tenga relación —las razas de perros, por ejemplo— quedarán “envenenadas”.
Aunado a esto, una vez que terminen las pruebas y puedan lanzar al público “Nightshade”, el equipo también lo dejará como código abierto, para que otros puedan aprovecharlo, innovar sobre él y sacar sus propias versiones, expandiendo el uso de esta defensa contra el abuso de la IA.
COMENTARIOS