ChatGPT nos marca sus propios límites para usarlo en periodismo

Es muy probable que alguna noticia que hayas leído recientemente sea el producto de una petición rápida a un robot conversacional, eso sí, un robot tan elocuente que no sería fácil notarlo. Las posibilidades son infinitas, pero, ¿dónde deben pintar la raya los medios? El propio chatbot nos da su recomendación.

Noticias
/ 28 enero 2023
COMPARTIR
Pregunta: ¿Cómo garantizas elecciones libres y justas en Coahuila? (Explícalo chistoso).
Respuesta: Debes seguir estos sencillos pasos:
1. Asegúrese de que todos los candidatos estén igualmente calificados, o al menos igualmente no calificados.
2. Use un sistema de votación que no pueda ser hackeado, por ejemplo, un volado con una moneda.
3. Cree una opción “Ninguno de los anteriores”, porque seamos realistas, a veces la única opción justa es no elegir nada.
4. Contrate un equipo de verificadores de datos independientes para asegurarse de que las promesas de la campaña sean solo moderadamente engañosas.
5. Y lo más importante, asegúrese de que no se permita a los candidatos sobornar a los votantes con promesas de pizza gratis. Porque seamos realistas, todo el mundo tiene un precio, y ese precio es la pizza.

La interacción previa es el resultado -sin edición, pero traducido al español- de una conversación con ChatGPT y, dependiendo del comando con el que se solicite (sarcástico, chistoso, inspirador), cualquier tema puede ser desarrollado para acomodarse en una columna de opinión o hasta adecuar copy para estrategias de marketing.

TE PUEDE INTERESAR: La cosa se puso turbia cuando le pedimos a una inteligencia artificial que hablara sobre el futuro

Es probable que la Inteligencia Artificial no reemplace al periodismo, pero ya lo está revolucionando. Mientras el auge de los bots conversacionales llamó primero la atención por los estudiantes que utilizaron ChatGPT para “comisionar” sus tareas sin que los maestros lo notaran, ya también hay medios que le encargan artículos.

Con ChatGPT -un programa de generación de texto desarrollado por la empresa de inteligencia artificial OpenAI- las conversaciones abarcan desde pedirle sugerencias para planear una piñata hasta preguntar por recetas para masa de pizza, pero desde noviembre de 2022 el bot es el autor de artículos explicativos en el popular medio de tecnología CNET, y el New York Times le pidió generar un editorial.

“Este artículo fue generado utilizando tecnología de automatización”, con esta leyenda, los medios reconocen -algunos más sutiles que otros- que el autor de los textos es el chatbot, pero más allá de jugar a maravillarse con lo que puede hacer, hay preguntas y riesgos sobre lo que no debe ser que es momento de plantearse.

Hasta cierto grado, es posible pedir al programa que asuma una postura introspectiva y que desde su mismo “razonamiento” valore cómo debemos y podemos aprovecharlo. Estas fueron sus respuestas:

Pregunta: ¿Qué necesidades puedes cubrir?
Respuesta: Estoy destinado a satisfacer una amplia gama de necesidades relacionadas con el lenguaje, como responder preguntas, generar texto y comprender la entrada del lenguaje natural. Las personas pueden hacerme preguntas y haré todo lo posible para proporcionar información precisa y relevante. Puedo generar texto en una amplia gama de estilos y formatos, como historias, artículos y código.
Pregunta: ¿Cuál es un concepto erróneo más común que la gente tiene sobre ti?
Respuesta: Que soy un ser humano o que tengo opiniones y sentimientos personales. Soy un modelo de aprendizaje automático, lo que significa que proceso y genero texto basado en patrones en los datos en los que he sido entrenado, pero no tengo pensamientos ni sentimientos personales.
Otro concepto equivocado que tienen de mí es que siempre tengo razón y que la información que proporciono siempre es verdadera.

Sabe hablar, pero no sabe pensar
“Lo que obtienes de esto es un reflejo de todo lo que hay en internet”, expresó Jenna Burrell, directora de investigación de Data & Society y exprofesora de la Escuela de Información de UC Berkley durante una conferencia que guio a periodistas a comprender, cubrir y utilizar mejor ChatGPT.

ChatGPT nos lleva a una experiencia de ‘caja única’ donde encuentras todo y nadie irá nunca más a un sitio web, o al menos nadie necesitará hacerlo.

El programa alcanzó el millón de usuarios en cinco días, según el CEO de la compañía, Sam Altman, quien reveló la información en Twitter. Como referencia, a Netflix le tomó 40 meses, a Facebook 10 y a Twitter más de 20. Ya se nota que ChatGPT se convirtió en una recurrida fuente de información de “una parada”.

Dónde sí se puede aprovechar
Esta tecnología nos mantiene en línea con las reglas del juego de otras herramientas tecnológicas. La prestigiosa agencia de noticias Associated Press ha estado usando IA desde 2015 para escribir automáticamente miles y miles de informes de ganancias.

“Es bueno para publicar artículos rápidos a los que entren muchas personas desde los motores de búsqueda y luego, idealmente, permanecerán en la página o navegarán por otras de sus publicaciones. No es ‘clickbait’, sino una forma de jugar el juego de optimización de motores de búsqueda (SEO), y me siento un poco incómoda con eso, por los errores de hecho que se omitirán”, apuntó Burrell.

TE PUEDE INTERESAR: ChatGPT-3 alcanza el millón de usuarios en apenas 5 días, a otras firmas llevó años

Pregunta: ¿Cómo aprovechar ChatGPT en periodismo?
Respuesta: Se puede generar artículos de noticias sobre una amplia gama de temas, como deportes, finanzas y eventos actuales. Estos artículos se pueden usar para reemplazar artículos escritos por humanos en ciertas situaciones, como cuando no hay un reportero humano disponible.

A pesar de la confiada afirmación del bot, sería un error asumir que solo porque no se está generando contenido con la intención expresa de desinformar o hacer propaganda, no significa que el exceso de información, que se “mezcla en el embudo” para que luego el robot arroje una síntesis, no conlleva a su propia categoría de desinformación, una donde los errores son incluso más torpes.

“Existe un sesgo de automatización, esta es la noción de que las personas confían en las computadoras porque asumen que producen respuestas correctas y, que como son computadoras, es matemático y es cierto. Eso es un error”, explicó Jenna Buell.

$!Expertos previenen que veremos que ChatGPT y herramientas similares se usan de manera contradictoria con la intención de socavar la confianza en los entornos de información.

Dónde prenden las alarmas
Una de las preocupaciones inmediatas aborda los derechos de autor. Si el programa produce contenido basado en toda la información que existe de la web pública abierta, ¿realmente está dando contenido que se le deba adjudicar?

Pregunta: ¿Deberías ser utilizado para cumplir con las tareas de alguien?
Respuesta: Estoy aquí para ayudar con una amplia gama de tareas relacionadas con el idioma, y eso incluye ayudar a los estudiantes con sus tareas. Sin embargo, es importante recordar que mi objetivo principal es ayudar con la comprensión, no simplemente proporcionar respuestas.
Por lo general, no se considera ético usarme a mí para hacer la tarea sin esforzarse por aprender el material. Es mucho más beneficioso para los estudiantes usarme como una herramienta, en lugar de solo usarme para obtener respuestas.
Por lo tanto, si bien estoy feliz de ayudar, es importante que me utilice de manera ética y responsable, y siempre trate de comprender el material en el que está trabajando.

Para propósitos periodísticos, usar la función de “demasiado largo, no lo leí” (TL;DR) que ofrece el bot, puede ayudar a preparar las preguntas para una entrevista de un tema en poco tiempo, como “googlear” pero con más precisión, más no funcionaría para reemplazar una entrevista en sí.

Del algoritmo al humano
ChatGPT reúne la inteligencia de muchos contenidos y los concentra en respuestas simples. Si el futuro es inteligente, ¿podría ser que el presente ha perdido la capacidad de comprensión? Ante un mar de opiniones y afirmaciones sesgadas que cualquiera puede posicionar como la respuesta prioritaria con tan solo haber generado los suficientes clics, encontrar la verdad se complica.

Pregunta: ¿Por qué los humanos terminaron en una posición donde necesitan robots conversacionales?
Respuesta: Debido a la creciente cantidad de información disponible en Internet y la creciente necesidad de un procesamiento de lenguaje eficiente y simple. A medida que ha crecido la cantidad de texto disponible en línea, se ha vuelto cada vez más difícil para los humanos procesar y dar sentido a toda esta información. Los modelos de lenguaje como ChatGPT pueden ayudar a comprender y generar texto, lo que facilita que las personas encuentren la información que necesitan y se comuniquen con las computadoras usando lenguaje natural.

¿Cómo planeas utilizar herramientas tecnológicas de Inteligencia Artificial?

COMENTARIOS

Selección de los editores