¿Cómo detectar videos generados por inteligencia artificial? Pon atención a estos elementos

COMPARTIR
Los deepfakes, cada vez más realistas gracias a la inteligencia artificial, desafían la confianza en los contenidos visuales y exigen nuevas estrategias de verificación
Con el acelerado desarrollo de la inteligencia artificial (IA), una de sus aplicaciones más controvertidas ha alcanzado niveles de realismo sin precedentes: los llamados deepfakes, videos generados o alterados mediante IA que imitan rostros, voces y movimientos humanos con gran precisión. Esta tecnología, que comenzó como una curiosidad técnica, se ha convertido en un desafío global para la veracidad informativa, la seguridad digital y la confianza en los contenidos visuales.
Durante los últimos meses, se han viralizado diversos videos que resultaron ser productos de inteligencia artificial. Uno de los ejemplos incluye un clip donde un supuesto canguro, que funge como animal de compañía, es rechazado al intentar abordar un avión. En ambos casos, los videos generaron reacciones masivas en redes sociales antes de que se plantearan dudas sobre su autenticidad.
TE PUEDE INTERESAR: ¡Que triste! Tierno ‘cangurito’ se queda con boleto de avión ‘en mano’; video con IA se hace viral
Ante este fenómeno, especialistas en seguridad digital y análisis multimedia han identificado un conjunto de señales visuales y recursos tecnológicos que pueden ayudar al público general a detectar si un video ha sido alterado o completamente creado por IA.
Admito que casi siempre detectaba cuando un video era hecho por inteligencia artificial , pero este del canguro de verdad que me ha impresionado ! Se que muchos dirán “al primer segundo sabia que era hecho con AI” , pero en mi caso de verdad pensé que era real 😱#IA pic.twitter.com/U9KamA7kBR
— Jhon Torres Jimenez (@jhontxu) May 29, 2025
SEÑALES VISUALES E INCONSISTENCIAS COMUNES EN DEEPFAKES
Aunque los algoritmos generativos mejoran constantemente, los deepfakes aún presentan fallos que pueden delatar su origen digital. A continuación, se enumeran algunas de las señales más relevantes a tener en cuenta al observar un video sospechoso:
1. DETALLES FACIALES Y EXPRESIONES POCO NATURALES
- Sincronización labial imperfecta: Es frecuente que los movimientos de los labios no coincidan de forma precisa con el audio.
- Parpadeo irregular: Las personas en deepfakes pueden parpadear demasiado rápido, demasiado lento o casi no parpadear en absoluto.
- Reflejos oculares inusuales: La falta o inconsistencia en los reflejos de los ojos, o reflejos artificiales en lentes, puede sugerir manipulación.
- Expresiones faciales forzadas o inexpresivas: Aunque la IA ha avanzado en replicar emociones, todavía tiene dificultades para representar microexpresiones y transiciones faciales sutiles.
- Asimetrías faciales: Rasgos desproporcionados, como orejas de diferentes tamaños o ojos mal alineados, son indicios comunes.
“Will Smith”:
— ¿Por qué es Tendencia? (@porktendencia) January 4, 2025
Porque la IA ahora puede generar mejores videos de Will Smith comiendo espagueti. pic.twitter.com/W1hGuLKgLy
2. ARTEFACTOS DIGITALES Y CALIDAD DE IMAGEN REVELAN VIDEOS QUE ESTÁN HECHOS CON IA
- Bordes imprecisos: Los contornos del rostro o del cuerpo pueden aparecer borrosos o poco definidos.
- Ruido visual: Píxeles anómalos o errores en áreas complejas como el cabello o la ropa pueden revelar la intervención de IA.
- Textura irreal de la piel: Piel demasiado suave, excesivamente granulada o con patrones poco naturales puede ser señal de generación artificial.
- Baja resolución injustificada: Videos difundidos en baja calidad sin versión original verificable pueden levantar sospechas.
3. PROBLEMAS CON LA LUZ Y LA SOMBRA PUEDEN EVIDENCIAR VIDEOS CREADOS CON INTELIGENCIA ARTIFICIAL
- Iluminación incoherente: Las sombras pueden estar mal posicionadas o no coincidir con la fuente de luz visible.
- Contradicciones de perspectiva: Objetos y sujetos pueden presentar dimensiones o posiciones que no coinciden con el entorno general.
4. VIDEOS CREADOS CON IA PUEDEN TENER ERRORES CONTEXTUALES Y FÍSICOS
- Narrativas poco plausibles: Historias que contradicen hechos conocidos o que parecen demasiado extraordinarias podrían ser fabricaciones.
- Fondos irreales: Ambientes con poca profundidad, falta de movimiento o apariencia artificial también pueden delatar un deepfake.
- Errores anatómicos: La IA puede fallar al recrear correctamente manos, dedos o extremidades humanas.
- Movimientos antinaturales: Cambios bruscos, rigidez o físicas inverosímiles son indicadores clave.
- Texto distorsionado: Letras mal formadas en carteles o letreros pueden ser una pista de generación digital.
tava olhando esses vídeos da nova ia do google e pqp tô com medo real agora, msm ainda dando pra ver que é ia eu me pergunto em quanto tempo vai evoluir até não dar mais pra distinguir o que é criado e o que é realpic.twitter.com/QiNXZrVpod
— jess&riki (@nikipintinhas) May 29, 2025
HERRAMIENTAS PARA DETECTAR DEEPFAKES
Ante la creciente circulación de contenido generado por IA, han surgido plataformas especializadas para verificar la autenticidad de imágenes y videos. Algunas de las herramientas más destacadas incluyen:
- Sentinel: Analiza amenazas generadas por IA en múltiples formatos multimedia.
- Intel FakeCatcher: Detecta señales biológicas en los píxeles de un video, como el flujo sanguíneo, para determinar su veracidad.
- Microsoft Video Authenticator Tool: Evalúa imágenes y videos para asignarles un puntaje de confiabilidad.
- Deepware Scanner: Utiliza aprendizaje automático para identificar patrones comunes de manipulación digital.
- Sensity AI: Rastrea contenido generado por IA y monitorea su propagación.
- Reality Defender: Plataforma integral para detectar deepfakes en video, imagen, texto y audio.
- Attestiv: Ofrece análisis para instituciones y empresas que requieren verificar la autenticidad de videos.
- WeVerify: Herramienta centrada en análisis multimedia para la verificación de contenidos digitales.
- Hive AI Detector (extensión para Chrome): Permite analizar directamente desde el navegador contenido visual sospechoso.
Arctic Snake woolly Snake 🐍 pic.twitter.com/2NS5g2dYDD
— Magical places (@PlacesMagi15559) May 27, 2025
TE PUEDE INTERESAR: Deepfake: el peligro digital que enfrentó Alana Flores y cómo puedes protegerte tú también
RECOMENDACIONES ADICIONALES PARA IDENTIFICAR VIDEOS CREADOS CON INTELIGENCIA ARTIFICIAL
Más allá de las herramientas automatizadas, existen prácticas de verificación accesibles para usuarios cotidianos:
- Búsqueda inversa de imágenes: Esta técnica permite rastrear si un video o fotograma ha sido utilizado previamente en otros contextos o medios.
- Evaluación de la fuente: Es recomendable confiar únicamente en medios de comunicación y cuentas verificadas. Contenido difundido por usuarios anónimos o sin historial confiable debe ser considerado con cautela.
- Revisión del audio: En muchos casos, la voz en los deepfakes puede sonar distorsionada, con tono metálico o mal sincronizada con el video.
El avance constante de los modelos de inteligencia artificial plantea nuevos desafíos para la identificación de contenidos auténticos. Los deepfakes ya no se limitan al entretenimiento o la sátira, y en algunos casos han sido utilizados para desinformar o influir en la opinión pública.