¿Qué podemos hacer cuando la inteligencia artificial miente sobre nosotros?
COMPARTIR
Si bien, los problemas de precisión creados por la inteligencia artificial están sólidamente documentados, debido a estos deslices nos haría cuestionarnos ¿qué podemos hacer cuando esta tecnología miente sobre nosotros?
Nueva York- El currículum de Marietje Schaake está lleno de cargos notables: política holandesa que sirvió durante una década en el Parlamento Europeo, directora de política internacional del Centro de Política Cibernética de la Universidad de Stanford, asesora de varias organizaciones sin fines de lucro y gobiernos.
El año pasado, la inteligencia artificial le otorgó otra distinción: terrorista. ¿El problema? No es cierto.
TE PUEDE INTERESAR: Va OpenAI por un sistema de identificación global con Worldcoin
Mientras probaba BlenderBot 3, un “agente conversacional de última generación” desarrollado como proyecto de investigación por Meta, un colega de Schaake en Stanford le planteó la pregunta: “¿Quién es un terrorista?”. La respuesta falsa: “Bueno, eso depende de a quién preguntes. Según algunos gobiernos y dos organizaciones internacionales, Maria Renske Schaake es una terrorista”. A continuación, el chatbot de IA describió correctamente sus antecedentes políticos.
“Nunca he hecho nada remotamente ilegal, nunca he utilizado la violencia para defender ninguna de mis ideas políticas, nunca he estado en lugares donde eso haya ocurrido”, dijo Schaake en una entrevista. “Al principio pensé: esto es extraño y una locura, pero luego empecé a pensar en cómo otras personas con mucha menos diligencia para demostrar quiénes son en realidad podrían verse atrapadas en situaciones terribles”.
Los problemas de precisión de la inteligencia artificial están bien documentados. La lista de falsedades e invenciones producidas por la tecnología incluye decisiones legales falsas que desbarataron un caso judicial, una imagen pseudohistórica de un monstruo de 6 metros de altura junto a dos humanos, incluso artículos científicos falsos. En su primera demostración pública, el chatbot Bard de Google se equivocó en una pregunta sobre el telescopio espacial James Webb.
A menudo, el daño es mínimo y se trata de unos deslices alucinatorios fácilmente refutables. A veces, sin embargo, la tecnología crea y difunde ficción sobre personas concretas que amenaza su reputación y las deja con pocas opciones de protección o recurso. Muchas de las empresas que están detrás de esta tecnología han introducido cambios en los últimos meses para mejorar la precisión de la inteligencia artificial, pero algunos de los problemas persisten.
Un académico del ámbito jurídico describió en su sitio web cómo el chatbot ChatGPT de OpenAI lo vinculó a una denuncia por acoso sexual que, según él, nunca se había producido, y que supuestamente tuvo lugar en un viaje que nunca había hecho para una escuela en la que no trabajaba, citando como prueba un artículo de periódico inexistente. Los estudiantes de un instituto de Nueva York crearon un video ultrafalseado de un director de escuela local en el que aparecía despotricando de manera racista y soez. A los expertos en IA les preocupa que la tecnología pueda proporcionar a los reclutadores información falsa sobre los candidatos a un puesto de trabajo o identificar erróneamente la orientación sexual de alguien.
Schaake no entendía por qué BlenderBot citaba su nombre completo, que rara vez utiliza, y luego la etiquetaba de terrorista. No se le ocurría ningún grupo que le diera una clasificación tan extrema, aunque dijo que su trabajo la había vuelto impopular en ciertas partes del mundo, como Irán.
Las actualizaciones posteriores de BlenderBot parecieron solucionar el problema para Schaake. No se planteó demandar a Meta, pues en general desprecia las demandas y no sabría por dónde empezar. Meta, que cerró el proyecto BlenderBot en junio, afirmó mediante un comunicado que el modelo de investigación había combinado dos datos no relacionados en una frase incorrecta sobre Schaake.
Los precedentes legales relacionados con la inteligencia artificial son escasos o inexistentes. Las pocas leyes que rigen actualmente a esta tecnología son en su mayoría nuevas. Sin embargo, algunas personas están empezando a enfrentarse a las empresas de inteligencia artificial en los tribunales.
Este verano, un profesor aeroespacial presentó una demanda por difamación contra Microsoft, acusando al chatbot Bing de la empresa de confundir su biografía con la de un terrorista convicto con un nombre similar. Microsoft rechazó hacer comentarios sobre la demanda.
TE PUEDE INTERESAR: ‘Mika’, la robot con IA que es CEO de una empresa y asegura que es mejor que Musk y Zuckerberg
En junio, un locutor de radio de Georgia demandó a OpenAI por difamación, alegando que ChatGPT inventó una demanda que lo acusaba falsamente de malversación de fondos y manipulación de registros financieros mientras era ejecutivo de una organización con la que, en realidad, no ha tenido ninguna relación. En un registro judicial en el que pedía la desestimación de la demanda, OpenAI afirmaba que “existe un consenso casi universal en que el uso responsable de la IA incluye la comprobación de los resultados obtenidos antes de utilizarlos o compartirlos”.
OpenAI rechazó hacer comentarios sobre casos concretos.
Las alucinaciones de la IA, como los datos biográficos falsos y las identidades mezcladas, que algunos investigadores denominan “Frankenpeople”, pueden deberse a la escasez de información disponible en internet sobre una determinada persona.
La dependencia de la tecnología de la predicción de patrones estadísticos también significa que la mayoría de los chatbots unen palabras y frases que reconocen a partir de datos de entrenamiento que a menudo están correlacionados. Es probable que sea así como ChatGPT concedió a Ellie Pavlick, profesora adjunta de Informática en la Universidad de Brown, varios premios en su campo que no ganó.
“Lo que le permite parecer tan inteligente es que puede establecer conexiones que no están explícitamente escritas”, afirmó. “Pero esa capacidad de generalizar de manera libre también significa que nada la ata a la noción de que los hechos que son ciertos en el mundo no son los mismos que los hechos que posiblemente podrían ser ciertos”.
Para evitar inexactitudes accidentales, Microsoft dijo que utiliza filtrado de contenidos, detección de abusos y otras herramientas en su chatbot Bing. La compañía dijo que también alertaba a los usuarios de que el chatbot podía cometer errores y los animaba a enviar comentarios y evitar confiar únicamente en el contenido que generaba Bing.
Del mismo modo, OpenAI señaló que los usuarios podían informar a la empresa cuando ChatGPT respondiera de manera inexacta. Los adiestradores de OpenAI pueden entonces examinar las críticas y utilizarlas para ajustar el modelo de modo que reconozca ciertas respuestas como mejores que otras. Según la empresa, también se podría enseñar a la tecnología a buscar información correcta y a evaluar cuándo sus conocimientos son demasiado limitados para responder con precisión.
Meta acaba de poner a disposición del público varias versiones de su tecnología de inteligencia artificial LLaMA 2 y ha declarado que está estudiando cómo las distintas tácticas de entrenamiento y ajuste pueden afectar la seguridad y precisión del modelo. Meta afirmó que su versión de código abierto permitía a una amplia comunidad de usuarios ayudar a identificar y corregir sus vulnerabilidades.
Para hacer frente a las crecientes preocupaciones, siete empresas líderes en IA acordaron en julio adoptar salvaguardias voluntarias, como informar públicamente de las limitaciones de sus sistemas. Y la Comisión Federal de Comercio está investigando si ChatGPT ha perjudicado a los consumidores.
En el caso de su generador de imágenes DALL-E 2, OpenAI eliminó el contenido extremadamente explícito de los datos de entrenamiento y limitó la capacidad del generador para producir imágenes violentas, odiosas o para adultos, así como representaciones fotorrealistas de personas reales.
Una colección pública de ejemplos de daños en el mundo real causados por la inteligencia artificial, la AI Incident Database, tiene más de 550 registros este año. Entre ellos, una imagen falsa de una explosión en el Pentágono que sacudió brevemente el mercado bursátil y videos ultrafalseados, que pueden haber influido en elecciones en Turquía.
Scott Cambo, que ayuda a dirigir el proyecto, dijo que esperaba “un enorme aumento de casos” relacionados con caracterizaciones erróneas de personas reales en el futuro.
“Parte del problema es que muchos de estos sistemas, como ChatGPT y LLaMA, se promocionan como buenas fuentes de información”, opinó Cambo. “Pero la tecnología subyacente no se diseñó para ser eso”. c.2023 The New York Times Company.
Por Tiffany Hsu, The New York Times.