Estudio pone a prueba las capacidades de la inteligencia artificial versus la humana

- Ciencia y más
/ 19 septiembre 2023

¿Hasta qué punto las capacidades de la inteligencia artificial es mejor que la humana? Estudios precisan que la IA puede superar a la mayoría de personas en una tarea de pensamiento lateral, sin embargo, presenta limitaciones para reconocer los sinsentidos verbales

Finlandia- Un estudio que fue coordinado por la Universidad de Turku en Finlandia y publicado en la revista Scientifics Reportsse analizó en el pensamiento lateral o divergente y en el que las personas que participaron tenían que idear usos alternativos para objetos cotidianos.

¿Qué es el pensamiento divergente?, es un tipo de proceso de pensamiento que habitualmente se asocia a la creatividad que supone plantearse muchas ideas o soluciones diferentes para una tarea determinada.

TE PUEDE INTERESAR: Cómo las escuelas pueden sobrevivir (e incluso prosperar) con ChatGPT y la IA

De acuerdo con los resultados de la investigación, los humanos que obtuvieron puntuaciones más altas lograron superar a las mejores respuestas de chatbots de inteligencia artificial con modelos de lenguaje extensos (LLM) en una tarea de pensamiento lateral; sin embargo, esta fue mejor que la mayoría de las personas.

El equipo de científicos llevó a cabo una comparación de las respuestas de las 256 personas que participaron con las de tres chatbots de IA (ChatGPT3, ChatGPT4 y Copy.Ai) en la tarea de dar usos alternativos a una cuerda, una caja, un lápiz y una vela.

$!Vista del logo de la empresa OpenAI junto a un monitor en el que se ve el ingreso a ChatGPT, en una fotografía de archivo.

Los autores evaluaron la originalidad de las respuestas, valorando la distancia semántica (grado de relación de la respuesta con el uso original del objeto) y la creatividad.

Siendo así, que las respuestas que fueron generadas por los chatbots obtuvieron puntuaciones significativamente más altas que las respuestas humanas tanto en distancia semántica (que fue de 0.95 frente a 091) como en creatividad (que fue de 2.91 frente a 2.47).

Mientras que en lo que se refiere a las respuestas humanas, estas tuvieron un rango mucho mayor en ambas medidas: las puntuaciones mínimas fueron mucho más bajas que las de las respuestas dadas por la IA, no obstante, las máximas fueron generalmente más altas.

$!Aplicación de ChatGPT en un iPhone, en Nueva York.

En resumen, la mejor respuesta humana logró superar a la mejor respuesta de cada chatbot en siete de las ocho categorías, indica Scientific Reports.

INTELIGENCIA ARTIFICIAL VS HUMANA, UN SEGUNDO ESTUDIO

En un segundo estudio, que coordinado por la Universidad de Columbia se decidió probar si los chatbots confunden frases sin sentido con el lenguaje natural. El estudio concluyó que estos sistemas de IA continúan siendo vulnerables en esa tarea.

Según esta investigación, los chatbots de inteligencia artificial fa la impresión que pueden entender y utilizar el lenguaje como lo hacemos los humanos, sin embargo, lo que usan son grandes modelos de lenguaje, un tipo característico de red neuronal.

En el artículo que fue publicado en Nature Machine Intelligence se detalla cómo se pusieron a prueba nueve modelos lingüísticos con cientos de pares de frases.

Las personas que participaron en este estudio eligieron cuál de las dos frases de cada par les parecía más natural, esto es, había más posibilidades que se leyera u oyera en la vida cotidiana, luego estudiaron si los chatbots las valoraban de la misma forma.

Como resultado, las IA más sofisticadas que están basadas en redes neuronales transformadoras “tendieron a funcionar mejor” que aquellos modelos de redes neuronales recurrentes más simples y los modelos estadísticos que solo cuentan la frecuencia de pares de palabras encontradas en Internet o en bases de datos en línea.

La Universidad indicó que todos los modelos cometieron errores, eligiendo a veces frases que al oído humano le parecen absurdas.

Nikolaus Kriegeskorte, quien es uno de los autores del estudio, explicó que “el hecho de que incluso los mejores modelos que estudiamos todavía puedan ser engañados por oraciones sin sentido muestra que a sus cálculos les falta algo sobre la forma en que los humanos procesamos el lenguaje”.

Con información de la Agencia EFE.

COMENTARIOS

Selección de los editores