Así es como los ‘periodistas robot’ podrían inundar el internet con noticias falsas

Tech
/ 20 marzo 2017

Algunos medios de comunicación ya usan un software para extraer contenido, y no hay nada que le impida a los propagandistas hacer lo mismo

Por: Brendan Scott  


Para los periodistas financieros de Associated Press (AP), la temporada de ganancias ya no es tan aburrida como alguna vez lo fue. La agencia de noticias ahora utiliza un software para producir más de 3.500 informes, esencialmente cubriendo todo el mercado bursátil estadounidense y liberando el tiempo de sus escritores para concentrarse en tareas más importantes.

El llamado periodismo robot, o "producción automática de noticias", no es la fantasía de los futuristas; ya llegó. Pero por el momento al menos, los periodistas pueden estar tranquilos. AP, por ejemplo, no ha corrido a ninguno de sus empleados por culpa de la tecnología. Al contrario, la utiliza como un complemento.

Los beneficios de dejarle a los robots el trabajo pesado de datos son obvios. No sólo las organizaciones de noticias aumentan el volumen y la velocidad de su producción en áreas tales como informes financieros y deportivos analizando extensas cantidades de números, claro, suponiendo que los autómatas estén configurados correctamente, eliminan el margen de error humano. Con eso, por supuesto, también eliminan de los datos el escrutinio humano, aunque el aprendizaje automático puede filtrar valores anormales cada día va mejorando más y más.  


Detrás de cada robot hay una persona con motivos e intenciones. Antes de que AP pueda extraer infinidad de informes financieros, alguien debe crear una serie de plantillas para que el software llene los espacios en blanco y "escriba" una historia apropiada. Y alguien tiene que decidir qué informes de la empresa se cubrirán en primer lugar. Todos estos son aportes humanos.

Es muy fácil que la automatización caiga en las manos equivocadas y pueda ser perjudicial. Digamos que podrían lanzar estadísticas de delincuencia falsas o cifras de desempleo erróneas e inundar el Internet con propaganda. Y, al hacerlo, podrían influir en la agenda pública.

La compañía que suministra la plataforma de AP, Wordsmith, no tiene una política donde estipule a quién pueden y no vender sus productos. Joe Procopio, director de productos, plantea el caso de que los partidos con agendas corruptas tienden a no tener muchos datos para empezar, y que es más fácil para los humanos aprovechar la falsa prosa de noticias echas manualmente que automatizar el proceso.

"Si vas a forzar los datos, ya sean historias, utilizar gráficos interactivos o utilizar la automatización para transmitir un mensaje de esos datos, para nosotros eso es muy difícil de controlar, de la misma manera que Microsoft no puede controlar a las personas que ponen datos incorrectos en Excel ", dice. "Lo que ofrecemos es sólo una herramienta."

Si bien los que hacen la propaganda todavía no emplean a los periodistas robots per se, la automatización ya se está utilizando para difundir la desinformación. Investigaciones recientes sugieren que hasta el 15 por ciento de las cuentas de Twitter son robots de software, con millones de personas que comparten enlaces de artículos de noticias falsos escritos por personas. Pero seguramente el público está discerniendo lo suficiente como para separar la confiabilidad de la información reportada en los medios tradicionales de noticias como la BBC en comparación con las afirmaciones de los blogs.

Gillian Bolsover, del Oxford Internet Institute, que estudia la "propaganda computacional", dice que puede ser difícil saber qué fuentes son confiables, incluso para los investigadores. "Hay varios problemas", dice. "¿Dónde se establece el límite entre el escándalo y la opinión? ¿Cómo saber qué es una fuente de noticias confiable cuando estas fuentes pueden editar sus propias páginas de Wikipedia? El problema es que, desde hace años, el Internet y las redes sociales ha ayudado a crear un eco donde la gente está más expuesta a la información que coincide con sus opiniones y sus prejuicios. Ahora estamos viendo como esos ecos se fortifican y se hacen sólidos".

No ayuda que los algoritmos de Google sean deficientes. Este mes el buscador tuvo que eliminar los resultados de su herramienta Feature Snippet que sugirió que Obama había planeado un golpe de Estado comunista. El problema es que, sin la supervisión humana, los algoritmos de búsqueda dan precedencia indebida a fuentes falsas con altos rankings.

"Esto es muy preocupante porque se está interponiendo entre la gente y la información mientras buscan la verdad y los hechos", dice Jonathan Albright, profesor asistente de la Universidad Elon. "Incluso si no optan por seguir esa consulta de búsqueda, estas cosas que están apareciendo están inyectando muchos prejuicios en las búsquedas cuando las personas quieren aclarar algún problema".

Al trazar un mapa del ecosistema de los sitios de noticias falsas de derecha, Albright descubrió que alrededor de una cuarta parte del tráfico que llegaba a un ejemplo de estos sitios era directa, con un 50 por ciento llegando desde Facebook. En otras palabras, millones de visitas provienen de personas que buscan información falsa que apoya su cosmovisión, antes de que estos mensajes sean amplificados en las redes sociales.

La programación y la remodelación de la opinión pública en los medios de comunicación no son nada nuevo. Cada año, las organizaciones gastan miles de millones de dólares en intentar hacer hacks, influir en la opinión e incluso en las políticas públicas. Will Moy, el fundador de Full Fact, creó la organización caritativa después de trabajar en el parlamento, donde vio falsas afirmaciones hechas en comunicados de prensa e informes no verificados, e incluso influyó en el proceso legislativo. Mevan Babakar, gerente de productos digitales de la organización sin fines de lucro, afirma que las mentiras se propagan en los medios de comunicación a todas horas, pero que durante períodos de cambio político, como el proceso del Brexit en curso y las recientes elecciones presidenciales de Estados Unidos, esto se intensifica.

Por ejemplo, según el director de Vote Leave, Dominic Cummings, la campaña publicó mil millones de "anuncios falsos" en las redes sociales en el período previo al referéndum del Brexit. "Lo preocupante al respecto, y estoy seguro de que los demás también lo hicieron, es que no sabemos a quién se dirigieron y no sabemos lo que dijeron o cual fue el mensaje principal y tampoco lo sabe la Comisión Electoral", dice Babakar.

"Uno escucha a los especialistas en tecnología decir que 'en algunos años la inteligencia artificial sobrepasará la inteligencia humana de varias formas', pero hay algunas limitaciones fundamentales. La inteligencia artificial no necesariamente puede detectar una historia o proporcionar el análisis que un periodista si puede hacer", dice Neil Thurman, profesor de City, University London, que a principios de este mes publicó un informe que sopesaba los pros y los contras del periodismo robot. "La gente siempre querrá que la información sea filtrada, lo que hacen los periodistas y las organizaciones de noticias, entonces es cuestión de quién confía y dónde va a tener su información filtrada para poder ver la madera de los árboles".

En una época en que la subversión de los hechos se ha convertido en una práctica aceptada, la preservación de la verdad, ya sea por los seres humanos, las máquinas o ambas, nunca había sido tan valiosa.

COMENTARIOS

TEMAS
Selección de los editores