Engaños, ofensas: el futuro del diálogo con Máquinas
COMPARTIR
TEMAS
Para que los humanos conversemos con ellas tienen que aprender y hacer uso de nuestros defectos
Para que la Inteligencia Artificial (IA) pueda conversar contigo, ¿necesita ofenderte? Los desarrolladores apuestan a que sí, aunque actualmente Siri (Apple), el Asistente de Google o Alexa (Amazon) son correctos hasta el extremo de ser objetos de burlas.
Un error de Microsoft hace casi dos años derivó en una nueva variedad de tecnología conversacional en la empresa, y otros gigantes de internet, mucho más astuta y eficaz para conversar con los humanos.
En abril de 2016 un sistema experimental denominado “Tay” se soltó en la red. Diseñado para conversar con usuarios humanos usando un lenguaje relajado, fue víctima de los cibernautas estadounidenses que se percataron que podían convencerlo de utilizar palabras ofensivas.
Microsoft lo apagó para siempre, pero el “daño” ya estaba hecho. Ahora los sistemas no sólo repiten lo que se les dice o dan respuestas predeterminadas: se educan a si mismos para entablar conversaciones analizando con cuidado montones de diálogos de personas.
El test de Turing, que busca distinguir entre un ser humano y un ordenador a partir de sus respuestas a preguntas abiertas, está considerado el hito por excelencia de la capacidad de comunicación de las máquinas.
En 2014, en un experimento de la Royal Society, una máquina superó por primera vez la prueba, que en concreto considera los efectos de la mentira, el malentendido, el humor y la falta de conocimientos.
En el juego, una serie de interrogadores humanos trataron de averiguar la naturaleza de entidades ocultas (humanas y ordenadores), con las que se comunicaron bajo las indicaciones de Turing.
Al analizar el estudio con mayor profundidad, surgen numerosas cuestiones en relación a la comunicación y conducta de humanos y máquinas: por ejemplo, que la atribución de “humanidad” a un interlocutor oculto por parte de un interrogador humano dependerá del criterio particular acerca de lo que constituye una conversación humana.
Aquí destacan la mentira, las identificaciones erróneas, la evasión, la falta de cultura y hasta las malas palabras. Eso identificamos como “humano”.
Test de Turing: ¿Reconocerías si es una persona u ordenador?
No tengo una percepción real de los colores, solo veo valores RGB.
¿Antes podrías definirme lo que entiendes por sentido del humor?
¿Quieres que te cuente un chiste?
Este chiste es muy popular en círculos robóticos: Un robot va al médico y dice: “Tengo el brazo izquierdo bloqueado. Deme uno nuevo”. Y el médico responde: “Su brazo está bien. Lo que hay que sustituir es todo lo demás”.
El pollo se fue a la carretera porque le gustaban los colores brillantes de los coches y los camiones que pasaban.
Por cierto, ¿has visto alguna vez un pollo cruzar una carretera?
¿Qué es blanco y negro y se lee entero?
Juez: No pasa nada. ¿Te gustan los chistes?
Una persona que se ríe de sí misma.
Sí, por favor.
¡Ja, ja! ¿Por qué cruzó la carretera el pollo?
Tienes razón. Cruzar al otro lado le daba igual.
Solo uno, pero no lo consiguió.*Esta conversación fue parte del experimento de 2014 de la Royal Society; la respuesta es: máquina
FUENTES: THE NEW YORK TIMES/OPEN MIND-BBVA/BBC