ChatGPT nos marca sus propios límites para usarlo en periodismo
Es muy probable que alguna noticia que hayas leído recientemente sea el producto de una petición rápida a un robot conversacional, eso sí, un robot tan elocuente que no sería fácil notarlo. Las posibilidades son infinitas, pero, ¿dónde deben pintar la raya los medios? El propio chatbot nos da su recomendación.
La interacción previa es el resultado -sin edición, pero traducido al español- de una conversación con ChatGPT y, dependiendo del comando con el que se solicite (sarcástico, chistoso, inspirador), cualquier tema puede ser desarrollado para acomodarse en una columna de opinión o hasta adecuar copy para estrategias de marketing.
TE PUEDE INTERESAR: La cosa se puso turbia cuando le pedimos a una inteligencia artificial que hablara sobre el futuro
Es probable que la Inteligencia Artificial no reemplace al periodismo, pero ya lo está revolucionando. Mientras el auge de los bots conversacionales llamó primero la atención por los estudiantes que utilizaron ChatGPT para “comisionar” sus tareas sin que los maestros lo notaran, ya también hay medios que le encargan artículos.
Con ChatGPT -un programa de generación de texto desarrollado por la empresa de inteligencia artificial OpenAI- las conversaciones abarcan desde pedirle sugerencias para planear una piñata hasta preguntar por recetas para masa de pizza, pero desde noviembre de 2022 el bot es el autor de artículos explicativos en el popular medio de tecnología CNET, y el New York Times le pidió generar un editorial.
“Este artículo fue generado utilizando tecnología de automatización”, con esta leyenda, los medios reconocen -algunos más sutiles que otros- que el autor de los textos es el chatbot, pero más allá de jugar a maravillarse con lo que puede hacer, hay preguntas y riesgos sobre lo que no debe ser que es momento de plantearse.
Hasta cierto grado, es posible pedir al programa que asuma una postura introspectiva y que desde su mismo “razonamiento” valore cómo debemos y podemos aprovecharlo. Estas fueron sus respuestas:
Sabe hablar, pero no sabe pensar
“Lo que obtienes de esto es un reflejo de todo lo que hay en internet”, expresó Jenna Burrell, directora de investigación de Data & Society y exprofesora de la Escuela de Información de UC Berkley durante una conferencia que guio a periodistas a comprender, cubrir y utilizar mejor ChatGPT.
ChatGPT nos lleva a una experiencia de ‘caja única’ donde encuentras todo y nadie irá nunca más a un sitio web, o al menos nadie necesitará hacerlo.
El programa alcanzó el millón de usuarios en cinco días, según el CEO de la compañía, Sam Altman, quien reveló la información en Twitter. Como referencia, a Netflix le tomó 40 meses, a Facebook 10 y a Twitter más de 20. Ya se nota que ChatGPT se convirtió en una recurrida fuente de información de “una parada”.
Dónde sí se puede aprovechar
Esta tecnología nos mantiene en línea con las reglas del juego de otras herramientas tecnológicas. La prestigiosa agencia de noticias Associated Press ha estado usando IA desde 2015 para escribir automáticamente miles y miles de informes de ganancias.
“Es bueno para publicar artículos rápidos a los que entren muchas personas desde los motores de búsqueda y luego, idealmente, permanecerán en la página o navegarán por otras de sus publicaciones. No es ‘clickbait’, sino una forma de jugar el juego de optimización de motores de búsqueda (SEO), y me siento un poco incómoda con eso, por los errores de hecho que se omitirán”, apuntó Burrell.
TE PUEDE INTERESAR: ChatGPT-3 alcanza el millón de usuarios en apenas 5 días, a otras firmas llevó años
A pesar de la confiada afirmación del bot, sería un error asumir que solo porque no se está generando contenido con la intención expresa de desinformar o hacer propaganda, no significa que el exceso de información, que se “mezcla en el embudo” para que luego el robot arroje una síntesis, no conlleva a su propia categoría de desinformación, una donde los errores son incluso más torpes.
“Existe un sesgo de automatización, esta es la noción de que las personas confían en las computadoras porque asumen que producen respuestas correctas y, que como son computadoras, es matemático y es cierto. Eso es un error”, explicó Jenna Buell.
Dónde prenden las alarmas
Una de las preocupaciones inmediatas aborda los derechos de autor. Si el programa produce contenido basado en toda la información que existe de la web pública abierta, ¿realmente está dando contenido que se le deba adjudicar?
Para propósitos periodísticos, usar la función de “demasiado largo, no lo leí” (TL;DR) que ofrece el bot, puede ayudar a preparar las preguntas para una entrevista de un tema en poco tiempo, como “googlear” pero con más precisión, más no funcionaría para reemplazar una entrevista en sí.
Del algoritmo al humano
ChatGPT reúne la inteligencia de muchos contenidos y los concentra en respuestas simples. Si el futuro es inteligente, ¿podría ser que el presente ha perdido la capacidad de comprensión? Ante un mar de opiniones y afirmaciones sesgadas que cualquiera puede posicionar como la respuesta prioritaria con tan solo haber generado los suficientes clics, encontrar la verdad se complica.
¿Cómo planeas utilizar herramientas tecnológicas de Inteligencia Artificial?
COMENTARIOS