Cuidado con las 'fake news': No creas todo lo que lees, oyes o ves

Tech
/ 27 julio 2017

Hoy en día se nos advierte de no creer en todas las noticias que leemos, pero ahora tendremos que cuestionar también todo lo que escuchamos y hasta lo que miramos

...Gracias a los avances en inteligencia artificial y gráficos por computadora, se podrán crear imágenes realistas de figuras públicas que parezcan decir cualquier cosa..."

Rostros animados de figuras públicas pueden decir lo que queramos y con un realismo sorprendente, gracias al desarrollo de nuevas tecnologías.

Si bien hoy en día se nos advierte de no creer en todas las noticias que leemos, ahora tendremos que cuestionar también todo lo que escuchamos y hasta lo que miramos.

Es la advertencia que hace Olivia Solon, reportera especializada en tecnología, quien escribe para The Guardian un artículo sobre el trabajo que hacen diversos equipos de investigación para capturar y sintetizar elementos sonoros y visuales del comportamiento humano.

Toma como ejemplo un proyecto de la Universidad de Washington en el que tomaron el audio original de uno de los discursos del ex presidente Barack Obama y lo usaron para animar su rostro en cuatro videos diferentes, aunque con tal precisión que no parecen ser falsos.

“En una época de Photoshop, filtros y redes sociales, muchos estamos acostumbrados a ver imágenes manipuladas”, explica Solon. “Sin embargo, hay una nueva generación de herramientas de manipulación de video y audio”.

Esto es posible gracias a los avances en inteligencia artificial y gráficos por computadora, mismos que permitirán crear imágenes realistas de figuras públicas que parezcan decir -advierte- cualquier cosa.

La periodista de San Francisco menciona el desarrollo de software como el de la Universidad de Stanford, capaz de manipular secuencias de video de figuras públicas y permitir que a una segunda persona inserte, en tiempo real, palabras en su boca.

También el equipo de investigación de la Universidad de Alabama, en Birmingham, ha estado trabajando en la suplantación de voz. “Con 3 ó 4 minutos de audio de voz de una víctima -tomada en vivo de videos de YouTube o programas de radio- un atacante puede crear una voz sintetizada que puede engañar a seres humanos y los sistemas de voz biométricos de seguridad utilizados por algunos bancos y teléfonos inteligentes”.

Olivia Solon reconoce que estas tecnologías aún no son perfectas, ya que las expresiones faciales pueden parecer distorsionadas o antinaturales, no obstante, advierte que con el tiempo podrán recrear fielmente el sonido o la apariencia de cualquier persona.

*  Con información de Olivia Solon de The Guardian.

TEMAS

COMENTARIOS

Selección de los editores