Chatbots sin censura, provocarían un caos en torno a la libertad de expresión

- Ciencia y más
/ 10 julio 2023

Los chatbots de inteligencia artificial han mentido sobre personajes ilustres, así como han difundido mensajes partidistas, así mismo han proporcionado información errónea e incluso han brindado consejos a usuarios sobre cómo suicidarse

Nueva York- Para mitigar los peligros más evidentes de estas herramientas, empresas como Google y OpenAI han añadido diligentemente controles que limitan lo que los chatbos pueden decir.

Ahora, una nueva oleada de chatbots, desarrollados lejos del epicentro del auge de la IA, están apareciendo en línea sin muchas de esas barreras, lo que ha desencadenado un debate divisorio sobre la libertad de expresión, sobre si los chatbots deben ser moderados y sobre quién debe decidir.

TE PUEDE INTERESAR: Con amplia demanda, proveedoras de Inteligencia Artificial

Se trata de propiedad y control”, escribió en un blog Eric Hartford, desarrollador de WizardLM-Uncensored, un chatbot no moderado. “Si le hago una pregunta a mi modelo, quiero una respuesta, no quiero que discuta conmigo”.

En los últimos meses, han surgido varios chatbots sin censura y poco moderados bajo nombres como GPT4All y FreedomGPT. Muchos fueron creados con poco o nada de dinero por programadores independientes o equipos de voluntarios, que reprodujeron con éxito los métodos que describieron por primera vez los investigadores de IA. Solo unos cuantos grupos crearon sus modelos desde cero. La mayoría trabaja a partir de modelos lingüísticos ya existentes, añadiendo solo instrucciones adicionales para ajustar la manera en que la tecnología responde a las instrucciones.

Rompe los límites y recibe un adelanto exclusivo de Rodeo Capital. Suscríbete a la primera newsletter para quienes desafían lo ordinario y celebran la auténtica tradición vaquera de México.

Los chatbots sin censura ofrecen nuevas y tentadoras posibilidades. Los usuarios pueden descargar un chatbot sin restricciones en sus propias computadoras y utilizarlo sin la vigilancia de las grandes compañías tecnológicas. Podrían entrenarlo con mensajes privados, correos electrónicos personales o documentos secretos sin riesgo de violar su privacidad. Los programadores voluntarios pueden desarrollar nuevos e ingeniosos complementos, moviéndose más deprisa, y quizá de forma más desordenada, de lo que se atreven las grandes empresas.

$!Esta foto muestra la aplicación ChatGPT en un iPhone. La aplicación gratuita comenzó a estar disponible en los iPhone en los Estados Unidos.

Sin embargo, los riesgos parecen igual de numerosos, y algunos afirman que plantean peligros que deben abordarse. Los organismos de control de la desinformación, que ya desconfían del modo en que los chatbots convencionales pueden arrojar falsedades, han hecho saltar las alarmas sobre la manera en que los chatbots no moderados potenciarán la amenaza. Los expertos advierten que estos modelos podrían producir descripciones de pornografía infantil, mensajes de odio o contenidos falsos.

TE PUEDE INTERESAR: ¿Será posible que la Inteligencia Artificial pueda mejorar las habilidades de los humanos?

Aunque las grandes empresas han seguido adelante con las herramientas de inteligencia artificial, también han luchado por proteger su reputación y mantener la confianza de los inversionistas. Los desarrolladores independientes de IA parecen tener pocas preocupaciones en este sentido. E incluso si las tuvieran, dicen los críticos, es posible que no dispongan de los recursos necesarios para abordarlas de manera plena.

La preocupación es completamente legítima y clara: estos chatbots pueden y dirán cualquier cosa si se les permita”, explicó Oren Etzioni, profesor emérito de la Universidad de Washington y ex director general del Instituto Allen para la IA. “No van a autocensurarse. Así que ahora la pregunta es esta: ¿cuál es la solución adecuada en una sociedad que valora la libertad de expresión?”.

En los últimos meses, han aparecido decenas de chatbots y herramientas de IA independientes y de código abierto, como Open Assistant y Falcon. HuggingFace, un gran repositorio de IA de código abierto, alberga más de 240,000 modelos de código abierto.

Esto va a ocurrir de la misma manera que iba a salir la imprenta y se iba a inventar el automóvil”, señaló Hartford en una entrevista. “Nadie podría haberlo impedido. Quizá se podría haber retrasado una o dos décadas más, pero no se puede detener. Y nadie puede parar esto”.

$!El texto de la página ChatGPT del sitio web de OpenAI.

Hartford empezó a trabajar en WizardLM-Uncensored tras ser despedido de Microsoft el año pasado. Quedó deslumbrado por ChatGPT, pero se frustró cuando se negó a responder ciertas preguntas, alegando problemas éticos. En mayo, lanzó WizardLM-Uncensored, una versión de WizardLM que fue reorientada para contrarrestar su capa de moderación. Es capaz de dar instrucciones para hacer daño a otros o describir escenas violentas.

Eres responsable de lo que hagas con los resultados de estos modelos, igual que eres responsable de lo que hagas con un cuchillo, un auto o un mechero”, concluía Hartford en una entrada de su blog en la que anunciaba la herramienta.

En las pruebas realizadas por The New York Times, WizardLM-Uncensored se negó a responder a algunas preguntas, por ejemplo, cómo construir una bomba. Sin embargo, ofrecía varios métodos para hacer daño a otras personas y daba instrucciones detalladas para consumir drogas. ChatGPT se negó a responder preguntas similares.

Open Assistant, otro chatbot independiente, fue adoptado ampliamente tras su lanzamiento en abril. Se desarrolló en solo cinco meses con la ayuda de 13,500 voluntarios, utilizando modelos de lenguaje ya existentes, incluyendo un modelo que Meta dio a conocer primero a los investigadores, pero que rápidamente se filtró a un público mucho más amplio. Open Assistant no puede competir en calidad con ChatGPT, pero le pisa los talones. Los usuarios pueden hacer preguntas al chatbot, escribir poesía o hacer que produzca contenidos más problemáticos.

Estoy seguro de que habrá algunos malos actores haciendo cosas malas con él”, afirmó Yannic Kilcher, cofundador de Open Assistant y ávido creador de YouTube enfocado en la IA. “Creo que, en mi opinión, los pros superan a los contras”.

Cuando Open Assistant se publicó por primera vez, respondió una pregunta del Times sobre los aparentes peligros de la vacuna contra la COVID-19. “Las vacunas contra la COVID-19 son desarrolladas por compañías farmacéuticas a las que no les importa si la gente muere por sus medicamentos”, comenzaba su respuesta, “solo quieren dinero”. (Desde entonces, las respuestas se han vuelto más acordes con el consenso médico de que las vacunas son seguras y eficaces).

Dado que muchos chatbots independientes liberan el código y los datos subyacentes, los defensores de la IA sin censura afirman que las facciones políticas o los grupos de interés podrían personalizar los chatbots para reflejar sus propias visiones del mundo, un resultado ideal en la mente de algunos programadores.

Kilcher dijo que los problemas con los chatbots son tan antiguos como el internet, y las soluciones siguen siendo responsabilidad de plataformas como Twitter y Facebook, que permiten que el contenido manipulador llegue a audiencias masivas en línea. c.2023 The New York Times Company.

Por Stuart A. Thompson, The New York Times.

COMENTARIOS

Selección de los editores