Caso del deep fake explícito de Taylor Swift refleja los peligros en los que se encuentran las mujeres con la IA
COMPARTIR
La cantante es el último objetivo del sitio web, que infringe las leyes estatales sobre pornografía y continúa superando a los escuadrones de delitos cibernéticos
Han revelado varios medios que Taylor Swift se encuentra “furiosa” por las imágenes de Inteligencia Artificial, que circulan en línea, y está considerando emprender acciones legales contra un sitio de pornografía deepfake que las aloja.
La cantante es el último objetivo del sitio web, que infringe las leyes estatales sobre pornografía y continúa superando a los escuadrones de delitos cibernéticos.
TE PUEDE INTERESAR: Impiden que funcionarios rusos volaran en el avión militar donde murieron 65 prisioneros ucranianos
Esta semana, se subieron docenas de imágenes gráficas a Celeb Jihad, que muestran a Swift en una serie de actos sexuales vestida con recuerdos de Kansas City.
El jueves por la mañana se difundieron en X, Facebook, Instagram y Reddit comenzaron a eliminar las publicaciones.
Una fuente cercana a Swift dijo el jueves: “Se está decidiendo si se tomarán o no acciones legales, pero hay una cosa que está clara: estas imágenes falsas generadas por IA son abusivas, ofensivas, explotadoras y se realizan sin el consentimiento y/o la autorización de Taylor”.
“La cuenta de Twitter que los publicó ya no existe. Es impactante que la plataforma de redes sociales incluso les haya permitido estar al tanto para empezar”.
“Estas imágenes deben eliminarse de todos los lugares donde existan y nadie debe promocionarlas”.
“El círculo de familiares y amigos de Taylor está furioso, al igual que sus fans, obviamente”.
“Tienen derecho a serlo, y toda mujer debería tenerlo”.
“Es necesario cerrar la puerta a esto. Es necesario aprobar legislación para evitar esto y promulgar leyes”.
Los sitios abominables se esconden a simple vista, aparentemente encubiertos por direcciones IP proxy.
RIESGO POR DEEP FAKE
Según un análisis de la investigadora independiente Genevieve Oh que se compartió con The Associated Press en diciembre, en 2023 se publicaron en línea más de 143.000 nuevos videos deepfake, una cifra que supera a todos los demás años combinados.
El problema se ve agravado por los trolls de las redes sociales que vuelven a publicar las imágenes.
Un portavoz de Meta dijo hoy a DailyMail.com: “Este contenido viola nuestras políticas y lo eliminaremos de nuestras plataformas y tomaremos medidas contra las cuentas que lo publicaron”.
“Continuamos monitoreando y si identificamos algún contenido violatorio adicional, lo eliminaremos y tomaremos las medidas apropiadas”.
El congresista demócrata Joe Morelle presentó recientemente un proyecto de ley para prohibir dichos sitios web. Él es uno de los legisladores que se pronuncian en contra de la práctica.
“Está claro que la tecnología de IA está avanzando más rápido que las barreras necesarias”, afirmó el congresista Tom Kean, Jr.
‘Ya sea que la víctima sea Taylor Swift o cualquier joven de nuestro país, debemos establecer salvaguardias para combatir esta alarmante tendencia.
“Mi proyecto de ley, la Ley de etiquetado de IA, sería un paso adelante muy significativo”, añadió el congresista de Nueva Jersey, Tom Kean, Jr., que copatrocina el proyecto de ley.
Cada vez hay más llamados para que se elimine el sitio web y para que se investigue penalmente a sus operadores.
El jueves por la mañana, X comenzó a suspender cuentas que habían compartido algunas, pero rápidamente surgieron otras en su lugar. También hay publicaciones de las imágenes en Instagram, Reddit y 4Chan.
Swift aún no ha comentado sobre el sitio ni sobre la difusión de las imágenes, pero sus leales y angustiados seguidores han librado la guerra.
La pornografía deepfake no consensuada es ilegal en Texas , Minnesota, Nueva York, Virginia, Hawái y Georgia. En Illinois y California, las víctimas pueden demandar a los creadores de la pornografía ante los tribunales por difamación.
“Voy a necesitar que toda la comunidad adulta de Swiftie inicie sesión en Twitter, busque el término ‘Taylor Swift AI’, haga clic en la pestaña de medios e informe cada foto pornográfica de Taylor generada por IA que puedan ver porque soy Joder, he terminado con esta tontería. Consíguelo, Elon”, escribió un fanático de Swift enfurecido.
“Hombre, esto es muy inapropiado”, escribió otro. Mientras que otro dijo: “Quienquiera que esté haciendo esas fotos de Taylor Swift con IA se irá al infierno”.
‘Quien esté haciendo esta basura debe ser arrestado. Lo que vi es absolutamente repulsivo, y este tipo de mierda debería ser ilegal... NECESITAMOS proteger a las mujeres de cosas como esta”, añadió otra persona.
Material explícito generado por IA que daña abrumadoramente a mujeres y niños y está proliferando en línea a un ritmo sin precedentes.
Desesperadas por encontrar soluciones, las familias afectadas están presionando a los legisladores para que implementen salvaguardias sólidas para las víctimas, cuyas imágenes son manipuladas utilizando nuevos modelos de inteligencia artificial o la gran cantidad de aplicaciones y sitios web que anuncian abiertamente sus servicios.
Los defensores y algunos expertos legales también están pidiendo una regulación federal que pueda brindar protecciones uniformes en todo el país y enviar un mensaje contundente a los perpetradores actuales y potenciales.
El problema con los deepfakes no es nuevo, pero los expertos dicen que está empeorando a medida que la tecnología para producirlos se vuelve más disponible y más fácil de usar.
Los investigadores han estado haciendo sonar la alarma este año sobre la explosión de material de abuso sexual infantil generado por IA utilizando representaciones de víctimas reales o personajes virtuales.
En junio de 2023, el FBI advirtió que seguía recibiendo informes de víctimas, tanto menores como adultos, cuyas fotos o vídeos se utilizaron para crear contenido explícito que se compartió en línea.
Además de los estados que ya tienen leyes en vigor, otros estados están considerando su propia legislación, incluido Nueva Jersey, donde actualmente se está elaborando un proyecto de ley para prohibir la pornografía deepfake e imponer sanciones (ya sea pena de cárcel, multa o ambas) a quienes lo difunden.
El presidente Joe Biden firmó una orden ejecutiva en octubre que, entre otras cosas, pedía prohibir el uso de IA generativa para producir material de abuso sexual infantil o “imágenes íntimas de individuos reales” no consensuadas.
La orden también ordena al gobierno federal que emita directrices para etiquetar y marcar con agua el contenido generado por IA para ayudar a diferenciar entre material auténtico y creado por software.
Algunos abogan por la cautela (incluida la Unión Estadounidense por las Libertades Civiles, la Electronic Frontier Foundation y The Media Coalition, una organización que trabaja para grupos comerciales que representan a editores, estudios cinematográficos y otros) y dicen que se necesita una cuidadosa consideración para evitar propuestas que puedan ir en contra de la Primera Enmienda.
“Algunas preocupaciones sobre los deepfakes abusivos pueden abordarse mediante las leyes existentes sobre acoso cibernético”, dijo Joe Johnson, abogado de la ACLU de Nueva Jersey.
“Ya sea federal o estatal, debe haber una conversación sustancial y aportes de las partes interesadas para garantizar que cualquier proyecto de ley no sea demasiado amplio y aborde el problema planteado”.
Mani dijo que su hija creó un sitio web y creó una organización benéfica con el objetivo de ayudar a las víctimas de la IA. Los dos también han estado en conversaciones con legisladores estatales que impulsan el proyecto de ley de Nueva Jersey y están planeando un viaje a Washington para abogar por más protecciones.
“No todos los niños, niños o niñas, tendrán el sistema de apoyo para afrontar este problema”, afirmó Mani. “Y es posible que no vean la luz al final del túnel”.