Especialista nos explican cómo detectar los ‘deepfakes’ en internet
![Especialista nos explican cómo detectar los ‘deepfakes’ en internet Especialista nos explican cómo detectar los ‘deepfakes’ en internet](http://vanguardia.com.mx/binrepository/1152x648/0c0/0d0/down-right/11604/HPDJ/55015894720-1_1-11102078_20250208200509.jpg)
COMPARTIR
Los ‘deepfakes’, consistentes en vídeos, imágenes y audios que no son reales, sin embargo parecen verídicos debido a una manipulación informática, son cada vez frecuentes y difíciles de detectar. Algunos indicios ayudan a desenmascarar estos contenidos multimedia ultrafalsos, según los especialistas
El anglicismo ‘deepfake’, que puede traducirse al castellano como ‘contenidos ultrafalso’ o ‘falsificación profunda’, se refiere a los contenidos audiovisuales (sobre todo videos, pero también fotografías y audios, en menor medida) manipulados mediante técnicas de inteligencia artificial, para parecer verdaderos pero que en realidad no lo son.
El realismo de estos contenidos audiovisuales falsificados es tan extremo que puede resultar muy difícil, y a veces casi imposible, distinguirlos de una producción real, lo que los convierte en una herramienta ideal para realizar actividades perjudiciales, como propagar noticias falsas o imágenes sexuales falsificadas que alguien difunde como venganza, según los especialistas.
TE PUEDE INTERESAR: Cómo están haciendo frente legisladores estadounidenses a los deepfakes como los que afectaron a Taylor Swift
Esta técnica se ha utilizado en el mundo del cine, por ejemplo en escenas donde un personaje aparece con la cara que tendría cuando era joven (recreada digitalmente) superpuesta en el cuerpo (real) de otro actor o actriz, pero también ha comenzado a utilizarse con fines fraudulentos, para inducir a error a los receptores, cometer estafas o difundir información falsa, añaden.
Los vídeos manipulados de personaje públicos efectuando declaraciones o acciones que nunca ocurrieron, o los audios ultrafalsos que imitan la voz de seres queridos de las personas, son algunos ejemplos de los también denominados ‘fakes audiovisuales’ cuya producción y difusión van en aumento.
![El análisis de los videos mediante sistemas tecnológicos ayuda a detectar ‘deepfakes’. $!El análisis de los videos mediante sistemas tecnológicos ayuda a detectar ‘deepfakes’.](http://vanguardia.com.mx/binrepository/972x648/0c0/0d0/down-right/11604/SQWW/55015894720-2_1-11102143_20250208200511.jpg)
Los ‘deepfakes’ son una de las cinco principales modalidades de fraude de identidad en internet, representando el 7% de las actividades fraudulentas de este tipo en línea, y su incidencia mundial se multiplicó por cuatro, de 2023 a 2024, según informe anual sobre fraude de la Plataforma de verificación Sumsub correspondiente a 2024.
Este trabajo, titulado ‘Get Identity Fraud Report 2024’, puede descargarse desde: https://sumsub.com/fraud-report-2024/.
La cantidad de ‘deepfakes’ detectados en todo el mundo ya se había multiplicado por diez entre 2022 y 2023, con un impacto más notable en Norteamérica y Europa, según un informe previo de Sumsub, recogido por la plataforma AIPRM especializada en inteligencia artificial.
La conjunción de la IA y los ‘deepfakes’ están cambiando de manera alarmante el panorama de la desinformación, con imágenes recientes generadas por IA de Disney World bajo el agua o ‘deepfakes’ de Donald Trump y Kamala Harris destinadas a impactar en las campañas electorales, según Sumsub.
TE PUEDE INTERESAR: Estafas con deepfakes, una amenaza creciente en México
“En 2025, los estafadores dependerán cada vez más de la IA no solo para generar ‘deepfakes’, que son solo la punta del iceberg, sino para producir una amplia gama de herramientas engañosas, como documentos de identidad, videos de la vida real, voces sintéticas y ‘chatbots’ (programas que simulan conversaciones) que se hacen pasar por usuarios reales”, adelantan.
“Estas innovaciones harán que el fraude de identidad sea más versátil y difícil de detectar”, explica Pavel Goldman-Kalaydin, director de inteligencia artificial (IA) y aprendizaje automático (ML) en Sumsub.
![Algunas fotos manipuladas solo se pueden distinguir de las auténticas utilizando inteligencia artificial. $!Algunas fotos manipuladas solo se pueden distinguir de las auténticas utilizando inteligencia artificial.](http://vanguardia.com.mx/binrepository/972x648/0c0/0d0/down-right/11604/VRWW/55015894720-3_1-11102147_20250208200512.jpg)
Los expertos de AIPRM han recopilado cinco consejos para detectar ‘deepfakes’ y protegerse del contenido falsificado, una variante de la denominada “inteligencia artificial adversa” que, según los datos que maneja esta plataforma, “podría causar pérdidas de 40.000 millones de dólares en 2027 a nivel mundial”.
1. VERIFIQUE LA FUENTE DE CONTENIDOS
Desde AIPRM recomiendan “examinar la credibilidad de las fuentes del contenido que se consume en línea, especialmente al informarse en las redes sociales, comprobando si la información proviene de un medio de comunicación con buena reputación o una cuenta oficial verificada”.
“Si la fuente no le resulta familiar o parece dudosa, verifique la autenticidad del contenido utilizando organizaciones de noticias confiables o plataformas de verificación de datos como Google Fact Check Tools”, aconsejan.
2. PRESTE ATENCIÓN AL IMPACTO EMOCIONAL
“Recuerde que la desinformación y las noticias falsas suelen aprovechar desencadenantes emocionales como el miedo, la ira o la indignación para nublar el juicio de los internautas”, apuntan.
“Cuando encuentre contenido que provoque emociones fuertes, haga una pausa y vuelva a evaluarlo para asegurarse de que no le estén utilizando como peón en el juego de alguien”, aconsejan.
![Fotograma de un ‘deepfake’ (video falso) en el que Tom Cruise hace un truco con una moneda. $!Fotograma de un ‘deepfake’ (video falso) en el que Tom Cruise hace un truco con una moneda.](http://vanguardia.com.mx/binrepository/429x648/215c1/428d648/down-right/11604/GPCA/55015894720-4_1-11102139_20250208200513.jpg)
3. OBSERVE EXPRESIONES Y MOVIMIENTOS FACIALES
Los ‘deepfakes’ suelen fallar cuando intentan replicar los intrincados detalles de las microexpresiones faciales y los movimientos naturales, en áreas clave como las zonas alrededor de los ojos y de la boca, según AIPRM.
Para detectarlos, “busque patrones de parpadeo poco naturales, movimientos oculares inconexos o movimientos bruscos de la cabeza y verifique si las expresiones faciales se alinean con las emociones transmitidas”, sugieren.
“Detalles como la uniformidad de los dientes, la textura del cabello y la estructura facial también pueden desenmascarar un ‘deepfake’”, según esta misma fuente.
Añaden que “un indicio delator de los ‘deepfakes’ es que “suelen tener medidas ligeramente diferentes en la forma de la cara y en las orejas, que son particularmente difíciles de replicar” por lo que es recomendable “pausar el video y examinar los rasgos faciales para detectar estas irregularidades”.
4. UTILICE HERRAMIENTAS DE BÚSQUEDA INVERSA
Desde AIPRM sugieren utilizar las herramientas de búsqueda inversa con las imágenes y vídeos sospechosos, para rastrear el origen del contenido visual.
Clicar la opción “Buscar por imágenes en Google” y subir la imagen sobre la que se tienen dudas, puede ayudar a identificar si está generada por IA, manipulada o se utiliza fuera de contexto, aseguran.
“Para verificar los vídeos, existen herramientas como InVID, que analizan el metraje y comprueban si hay modificaciones o versiones anteriores. Estas búsquedas permiten encontrar otras copias de la imagen en línea, lo que ayuda a verificar su autenticidad y descubrir posibles usos indebidos”, puntualizan.
![Fotograma de un ‘deepfake’ (video falso) de Barack Obama refiriéndose a Donald Trump. $!Fotograma de un ‘deepfake’ (video falso) de Barack Obama refiriéndose a Donald Trump.](http://vanguardia.com.mx/binrepository/983x648/0c0/0d0/down-right/11604/QPWL/55015894720-5_1-11102154_20250208200515.jpg)
5. BUSQUE INCONSISTENCIAS DIGITALES
Los ‘deepfakes’ suelen revelarse a través de defectos digitales muy sutiles como una borrosidad o una pixelación antinaturales, especialmente alrededor de los bordes de las caras u objetos, que indican una posible manipulación.
“Preste atención a las inconsistencias en la iluminación, las sombras y los reflejos; a las anomalías, como anteojos distorsionados fusionados con una mejilla, dedos borrosos cerrados alrededor del aire (en vez de un objeto) o dedos adicionales; y al fondo de la imagen, en busca de distorsiones o irregularidades que alteren la coherencia de la escena”, indican.
“Una forma divertida de perfeccionar nuestras habilidades de cazador de ‘deepfakes’ consiste en jugar a ‘Which Face is Real’ (www.whichfaceisreal.com), un juego creado por profesores de la Universidad de Washington, cuya práctica ayuda a reconocer los patrones del contenido generado por IA”, según AIPRM.
6. COMPRUEBE LA SINCRONIZACIÓN AUDIOVISUAL
“Para detectar un ‘deepfake’ es necesario observar los labios de los protagonistas, que adquieren formas específicas al pronunciar ciertas letras: Estos movimientos son difíciles de replicar con precisión para la IA, con lo que casi un tercio de los videos ultrafalsos tienen dificultades para hacer coincidir los sonidos y movimientos labiales de las letras M, B y P”, según esta fuente.
“Si nota desajustes sutiles entre los movimientos de los labios de quien habla y los sonidos que emite esa persona, o si percibe rarezas en el tono o el timbre de su voz, estas irregularidades son una señal indicativa de una posible falsificación”, apuntan.
“Los ‘deepfakes’ se perfilan como uno de los usos más alarmantes de la IA. Su poder reside en su capacidad de propagarse, pero su impacto disminuye si no se difunde ampliamente, por lo que si te topas con una posible falsificación, es preferible que te abstengas de compartirla”, concluye el experto en IA de AIPRM , Christoph C. Cemper,
DESTACADOS:
- La incidencia mundial de los ‘deepfakes’ se multiplicó por cuatro, de 2023 a 2024, tras haberse multiplicado previamente por diez, entre 2022 y 2023, según la Plataforma Sumsub.
- Los ‘deepfakes’ se perfilan como uno de los usos más alarmantes de la IA. Su poder radica en su capacidad de propagarse, según Christoph C. Cemper, experto en IA.
- Las rarezas en los rasgos faciales, como la forma de la cara y las orejas, y la falta de alineación entre las señales auditivas y visuales, son signos reveladores de un ‘deepfake’, señala.
Por Ricardo Segura EFE-Reportajes.