¿Debemos acelerar o desacelerar la inteligencia artificial? Ambas
COMPARTIR
La casi implosión de OpenAI sacó a la luz un conflicto dentro de la organización, y de la comunidad en general, sobre la velocidad a la que debe continuar la tecnología y también respecto a si ralentizarla ayudaría a volverla más segura
Por De Kai, The New York Times.
Como profesor tanto de Inteligencia Artificial como de Ética de la Inteligencia Artificial, creo que este planteamiento del problema omite la pregunta crítica sobre el tipo de inteligencia artificial que aceleramos o desaceleramos.
En mis 40 años de investigación sobre procesamiento del lenguaje natural y la creatividad computacional en el campo de la inteligencia artificial, fui pionero en una serie de avances en aprendizaje automático que me permitieron construir el primer traductor de idiomas en línea a gran escala del mundo, el cual engendró en poco tiempo programas como Google Translate y Bing Translator de Microsoft. Es complicado encontrar argumentos en contra del desarrollo de las inteligencias artificiales de traducción. Reducir los malentendidos entre culturas tal vez sea una de las cosas más importantes que puede hacer la humanidad para sobrevivir a la creciente polarización geopolítica.
Sin embargo, la inteligencia artificial también tiene un lado oscuro. Vi cómo muchas de las mismas técnicas, inventos de nuestra comunidad de procesamiento del lenguaje natural y aprendizaje automático con fines benéficos, se utilizaban tanto en las redes sociales y los motores de búsqueda y recomendación para amplificar la polarización en los prejuicios y la desinformación de un modo que plantea cada vez más amenazas existenciales para la democracia. En fechas recientes, a medida que la inteligencia artificial se ha vuelto más poderosa, hemos visto cómo la tecnología ha llevado a las ciberestafas a un nuevo nivel con voces ultrafalsas de colegas o seres queridos utilizadas para robarte dinero.
Las inteligencias artificiales manipulan a la humanidad. Y están a punto de ejercer un poder todavía más inconcebible para manipular nuestro inconsciente, algo que apenas se ha insinuado con los grandes modelos lingüísticos como ChatGPT. El momento Oppenheimer es real.
Sin embargo, “velocidad versus seguridad” no es lo único que nos distrae de las cuestiones importantes, y que oculta las amenazas reales que se ciernen sobre nosotros.
Uno de los pasos cruciales en los círculos de seguridad de la inteligencia artificial es la “alineación de la inteligencia artificial”, la cual se centra en el desarrollo de métodos para alinear las inteligencias artificiales con los objetivos de la humanidad. Hasta el reciente tumulto, Ilya Sutskever y Jan Leike, jefe de investigación sobre alineación de OpenAI, codirigían un programa de investigación sobre “superalineación” que intenta resolver una pregunta sencilla, pero de una significativa complejidad: “¿Cómo podemos garantizar que unos sistemas de inteligencia artificial mucho más inteligentes que los humanos cumplan los objetivos humanos?”.
No obstante, en la alineación de la inteligencia artificial, una vez más, hay un asunto evidente con el que no queremos lidiar.
Alineación... ¿Con qué tipo de objetivos humanos?
Desde hace tiempo, los filósofos, los políticos y las poblaciones han luchado con las disyuntivas espinosas entre los distintos objetivos. ¿Gratificación instantánea a corto plazo? ¿Felicidad a largo plazo? ¿Evitar la extinción? ¿Libertades individuales? ¿Bien colectivo? ¿Límites a la desigualdad? ¿Igualdad de oportunidades? ¿Grado de gobernanza? ¿Libertad de expresión? ¿Seguridad frente a discursos perjudiciales? ¿Grado de manipulación admisible? ¿Tolerancia de la diversidad? ¿Imprudencia admisible? ¿Derechos versus responsabilidades?
No hay un consenso universal sobre estos objetivos, mucho menos sobre asuntos todavía más detonantes como los derechos a las armas, los derechos reproductivos o los conflictos geopolíticos.
De hecho, la saga de OpenAI demuestra ampliamente cuán imposible es alinear los objetivos, incluso entre un puñado diminuto de líderes de OpenAI. ¿Cómo es posible que la inteligencia artificial se alinee con todos los objetivos de la humanidad?
Si este problema parece obvio, ¿por qué la alineación de la inteligencia artificial tiene tanto peso en la comunidad de la inteligencia artificial? Es probable que se deba a que el paradigma del modelo dominante en la inteligencia artificial es definir una función matemática que sirva de “función objetivo”, es decir, un objetivo cuantitativo o un norte que deba buscar la inteligencia artificial. En todo momento, el cerebro artificial de una inteligencia artificial toma miles, millones o incluso miles de millones de pequeñas decisiones para maximizar la consecución de este objetivo. Por ejemplo, un estudio reciente mostró cómo una inteligencia artificial médica que busca automatizar una fracción de la carga de trabajo de las radiografías de tórax detectó el 99 por ciento de todas las radiografías de tórax anormales, una cantidad superior a la de los radiólogos humanos.
Por lo tanto, los investigadores de la inteligencia artificial estamos muy tentados a plantear todo en términos de la maximización de una función objetivo; somos un caso típico de uso por costumbre. Para conseguir una inteligencia artificial segura, ¡solo debemos maximizar la alineación entre la inteligencia artificial y los objetivos de la humanidad! Si tan solo pudiéramos definir una función objetivo clara que mida el grado de alineación con todos los objetivos de la humanidad.
En la comunidad de la investigación sobre la inteligencia artificial con demasiada frecuencia ignoramos los riesgos existenciales que surgen de la manera en que la inteligencia artificial interactúa con la compleja dinámica de los complicados factores psicológicos, sociales, culturales, políticos y emocionales de la humanidad... los cuales no vienen en el paquete inmaculado de una simple función matemática.
Las empresas de inteligencia artificial, los investigadores y los reguladores deben acelerar con urgencia la resolución del problema que plantea el funcionamiento que se espera de las inteligencias artificiales frente a disyuntivas inmemoriales entre objetivos opuestos que no se han resuelto y también acelerar el desarrollo de nuevos tipos de inteligencias artificiales que puedan ayudar a resolver estos problemas. Por ejemplo, uno de mis proyectos de investigación incluye una inteligencia artificial que no solo comprueba la información, sino que la reformula en automático para reducir los prejuicios implícitos de los lectores. Acelerar este trabajo es apremiante justo por el avance exponencial de la tecnología de la inteligencia artificial en la actualidad.
Mientras tanto, debemos desacelerar el despliegue de las inteligencias artificiales que están exacerbando la inestabilidad sociopolítica, como los algoritmos que alinean una tras otra las publicaciones conspiratorias. En cambio, debemos acelerar el desarrollo de las inteligencias artificiales que ayuden a reducir esos peligrosos niveles de polarización.
Y todos nosotros, los expertos en inteligencia artificial, influentes de Silicon Valley y grandes medios de comunicación que dirigimos las conversaciones cotidianas, debemos dejar de esconder debajo de la alfombra estos desafíos reales por medio de narrativas demasiado simplistas y mal enmarcadas en torno a la aceleración versus la desaceleración de la inteligencia artificial. Debemos reconocer que nuestro trabajo impacta en los seres humanos y los seres humanos son desordenados y complejos en maneras que tal vez una ecuación elegante no pueda reflejar.
La cultura importa. La inteligencia artificial ya es parte de la vida cotidiana de nuestra sociedad, un hecho que llegará a ser más pronunciado de lo que la mayoría de la gente jamás imaginó. Ya es demasiado tarde para empezar a darse cuenta de eso. Dejemos que un conflicto en una sala de juntas sea nuestra oportunidad. Es posible soñar a lo grande rápido y frenar la confusión. c.2023 The New York Times Company.