¡Cuidado!, circulan en redes sociales videos falsos generados por IA sobre las inundaciones provocadas por el Melissa
Los videos acumulan millones de visualizaciones en las plataformas de redes sociales tales como X, TikTok e Instagram
NUEVA YORK- De acuerdo a un artículo escrito por Taimor Sobhan y Kelvin Chan titulado “Phony AI-generated videos of Hurricane Melissa flood social media sites”, publicado por la Agencia de Noticias The Asssociated Press, tras el paso de poderoso huracán Melissa por el Caribe en donde dejó destrucción, indignaciones y personas fallecidas han estado circulando videos falsos realizados a través de la inteligencia artificial.
Sobhan y Chan hacen referencia a un video viral en el que puede observar “lo que parecen ser cuatro tiburones nadando en la piscina de un hotel jamaicano”, derivado de las inundaciones provocadas por el huracán Melissa; en otro video se muestra supuestamente lo que supuestamente es el aeropuerto de Kingston, en Jamaica, que está completamente devastado por la tormenta.
TE PUEDE INTERESAR: Huracán Melissa tocó tierra en Cuba como categoría 3 tras devastar Jamaica; ya es mortal
Sin embargo precisan los autores, ninguno de estos dos hechos realmente sucedieron; son simplemente videos que desinforman generados por IA que circula en las redes sociales mientras la tormenta golpeaba el Caribe esta semana.
Hasta ahora tantos estos dos videos, así como con otros, acumulan millones de visualizaciones en plataformas de redes sociales tales como X, TikTok e Instagram.
Sobhan y Chan explican que da la impresión que algunos de estos videos fueron editados o que están basados en imágenes de desastres naturales anteriores, mientras que por ora parte hay otros que “parecen haber sido creados completamente por generadores de video generados por inteligencia artificial”.
“Pertenezco a muchos grupos de WhatsApp y veo todos estos videos. Muchos de ellos son falsos”, expresó el ministro de Educación de Jamaica, Dana Morris Dixon, por lo que, los instamos a que sigan los canales oficiales.
ESTE TIPO DE VIDEOS SON COMUNES DURANTE DESASTRES NATURALES
En opinión de Sobhan y Chan “si bien es común que durante los desastres naturales circulen fotos, videos y desinformación falsos, estos suelen desmentirse rápidamente. Sin embargo, los videos generados por nuevas herramientas de inteligencia artificial han agravado el problema, al facilitar la creación y difusión de clips realistas”.
“En este caso, el contenido ha estado apareciendo en las redes sociales junto con grabaciones reales realizadas por residentes locales y medios de comunicación, generando confusión entre los usuarios”, explican Sobhan y Chan.
Por su parte, los expertos consideran que va a ser cada vez más complicado lograr diferenciar entre la realidad y los deepfakes con forme vaya mejorando la tecnología. Por lo que precisan que Melissa es el primer gran desastre natural desde que OpenAI lanzó su última versión de su herramienta de generación de vídeo, Sora.
En este sentido, Sofia Rubinson, quien es editora sénior de NewsGuard y que analiza la desinformación en línea destalló a AP que “ahora, con el auge de herramientas potentes y de fácil acceso como Sora, se ha vuelto aún más sencillo para los ciberdelincuentes crear y distribuir vídeos sintéticos muy convincentes”.
“Antes, la gente solía identificar los vídeos falsos por señales reveladoras como movimientos antinaturales, texto distorsionado o dedos faltantes. Pero a medida que estos sistemas mejoran, muchos de esos fallos desaparecen, lo que dificulta cada vez más que el espectador medio distinga el contenido generado por IA de las grabaciones auténticas”, concluyó Rubinson.
Con información de la Agencia de Noticias The Associated Press.