Soldados hechos con IA y manipulación de ‘chatbots’, esta es es la nueva forma de desinformar sobre la guerra de Ucrania
COMPARTIR
EFE Verifica precisa que con el propósito de desinformar se esta haciendo uso de imágenes falsas o chabots
EFE Verifica explica que a través de la inteligencia artificial, misma que se convirtió “en un motor de desinformación sobre la guerra de Ucrania”, fundamentalmente con tanto de creación de imágenes falsas, así como la adulteración de los ‘chatbots’ como ChatGPT con información falsa con la que se buscan amoldar el acontecer de la invasión rusa que cumplió cuatro años.
Siendo así, precisa EFE Verifica, que la guerra de Ucrania ha sido, desde que inició, uno de los eventos que en donde se ha generado desinformación usando como vía las redes sociales, a través de embistes y narrativas falsas que “han traspasado fronteras”; sin embargo, es la IA la que ha logrado un “establecer punto de inflexión en la forma y difusión de la propaganda prorrusa”, detalla Olga Petriv, abogada especializada en IA para el Centro por la Democracia y el Estado de Derecho, con sede en Ucrania, a EFE Verifica.
TE PUEDE INTERESAR: Un 25% de las mujeres de Ucrania ha sufrido violencia física o sexual desde el inicio de la guerra
“La desinformación ha pasado de la creación manual de ‘noticias falsas’ a una etapa de operaciones totalmente automatizadas a escala industrial”, prosigue Petriv, al referirse a la comó ha sido “irrupción de esta tecnología”.
“Estas campañas de desinformación tienen entre sus objetivos manipular las respuestas de los ‘chatbots’ conversacionales”, acentúa EFE Verifica.
USO DE LA TÉCNICA LLM GROOMING
Al usar L
la técnica, que es conocida como LLM Grooming (manipulación de los Grandes Modelos de Lenguaje), lo que hace en “inundar internet de desinformación para que esta sea detectada e incorporada por los bots conversacionales y en sus respuestas”.
De esta forma, Petriv describe que “al inundar la web con millones de artículos generados por IA, las redes de propaganda ‘envenenan’ eficazmente el entorno informativo. Esto obliga a los sistemas de IA generativa a reproducir inadvertidamente estas mentiras como hechos objetivos”.
Este es el caso de la red Pravda, que se trata de un conjunto de páginas webs y que están presentes “en medio centenar de países”, señala EFE Verifica y en donde se publican “decenas de miles de artículos cada mes alineados con narrativas prorrusas”.
TE PUEDE INTERESAR: Después de cuatro años de guerra, jóvenes ucranianos buscan un futuro
EFE Verifica cita que de acuerdo a varias investigaciones, tanto los medios de comunicación convencionales como los blogs añaden a sus informaciones artículos de esta red, lo que aumenta su credibilidad y su posicionamiento en los motores de búsqueda y los ‘chatbots’.
EN VERDAD NO ES UN SOLDADO
Así también derivado del avance de lo que no existe precedentes en cuanto a la generación de imágenes haciendo uso de la inteligencia artificial ha sido un medio usado comúnmente “por los desinformadores para crear contenidos casi indistinguibles de la realidad”, detalla EFE Verifica.
EFE verifica hace referencia a que hace unos meses, se hizo viral en las redes sociales un vídeo en donde se puede observar a un presunto “soldado ucraniano de 23 años que lloraba a cámara al relatar que había sido obligado a ir al frente”.
Este vídeo fue sido creado usando la IA “a partir del rostro de un creador de contenidos ruso que se ha posicionado en contra del régimen de Vladímir Putin”.
EFE Verifica explica que “Estas imágenes, como otras de falsos soldados que aseguran haber sido forzados a luchar, carecen de los típicos fallos asociados a los contenidos generados con esta tecnología, y solo pequeñas inexactitudes en el uniforme o el escudo ucraniano pueden advertir ante los ojos del espectador que hay una imagen falsa”.
No obstante su “realismo” difiere con otros contenidos igualmente alterados digitalmente que “circulaban” cuando comenzó la guerra, es la caso de un deepfake del mandatario ucraniano, Volodímir Zelenski, en el que aparece bailando en el se pueden observar “varios errores perceptibles a simple vista”.
“Las tecnologías generativas modernas han alcanzado un nivel de realismo tal que identificar la manipulación requiere algo más que vigilancia: se necesitan herramientas analíticas especializadas, ya que estos ataques se dirigen a los desencadenantes subconscientes del público”, explcó Petriv.
Por lo que la abogada especializada en IA para el Centro por la Democracia y el Estado de Derecho, alerta sobre la proliferación de estas imágenes artificiales ya que es posible que sirvan como una “coartada” con el propósito de negar los hechos que sí son reales: “Ahora pueden negar incluso las pruebas irrefutables de sus crímenes (por ejemplo, imágenes auténticas del frente) simplemente etiquetándolas como ‘generadas por IA’”, añade Petriv.
En consecuencia, concluye Petriv, “esto crea una peligrosa ‘presunción de falsedad’, en la que, por defecto, la información que llega se percibe a menudo como potencialmente falsa, dejando los hechos reales indefensos ante una negación cínica”.
EFE Verifica advierte que “algunas de estas imágenes generadas con IA se han difundido en varios idiomas, como el alemán, español, francés, inglés, italiano o portugués, lo que deja entrever la existencia de una campaña organizada”.
Además concluye que “fuera del campo de la IA, también se han detectado en los últimos meses falsedades que tratan de disuadir a los combatientes extranjeros, sobre todo colombianos, de que luchen en favor de Ucrania o incluso torpedear las negociaciones de paz”.
ESTAS SON LAS FUENTES DE LAS EFE TOMÓ INFORMACIÓN
Para llevar acabo un análisis y verificar la información EFE revisó las siguientes fuentes:
- Olga Petriv, abogada especializada en IA para el Centro por la Democracia y el Estado de Derecho, con sede en Ucrania.
- La red Pravda, vinculada a Rusia, citada en Wikipedia, LLM y X, informe del Laboratorio de Investigación Forense Digital, (DFRLab) y Check First.
- Cientos de páginas web citan la red pro-Rusia Pravda, del Institute For Strategic Dialogue.