Cómo sobrevivir a la Inteligencia Artificial
COMPARTIR
Desde la perspectiva de la filosofía, o más concretamente, desde la perspectiva de la ética, no es difícil ver el mérito que poseen algunos de los escenarios apocalípticos alrededor del desarrollo de la IA. Uno de ellos imagina el desarrollo de una IA con capacidades cognitivas muy superiores a las humanas, pero guiada por valores radicalmente ajenos a los nuestros. Para sopesar la seriedad de este tipo de ideas alarmantes pensemos en un escenario alternativo que, aunque imaginario, nos ayude a pensar lo que sucede cuando nuestros valores éticos no se alinean con los valores que rigen la conducta de seres que no pertenecen a nuestra especie.
Imaginemos que un día nuestra mascota predilecta es sometida a una operación extraordinaria en la cual sus capacidades cognitivas se incrementan al grado de exhibir una inteligencia exponencialmente más grande que la de cualquier ser humano. Imaginemos también que a esto se agrega todo el conocimiento que hasta entonces hubiésemos acumulado.
TE PUEDE INTERESAR: Basura generada por la inteligencia artificial contamina nuestra cultura
Preguntémonos ahora ¿qué cambios podríamos esperar en su conducta? Resulta tentador pensar que nuestra mascota podrá entonces comunicarse y conversar sobre su vida, sus experiencias y cuánto nos quiere. Pero esto, por supuesto, es una fantasía un tanto cursi y desencaminada. Lo más probable es que nuestra mascota deje de vernos como sus dueños, recuerde con horror su condición previa de mascota y cambie radicalmente sus interacciones con nosotros y con el mundo. Si además posee los medios de modificar su entorno, una pregunta clave es si podríamos esperar una relación armoniosa y productiva con ella o si, por el contrario, se convierta en un riesgo existencial.
Este ejercicio imaginativo es similar a un gran número de escenarios familiares que aparecen en obras fantásticas y de ciencia ficción. Pensemos en el “Planeta de los Simios”, en donde especies muy cercanas evolutivamente desarrollan capacidades cognitivas similares a las nuestras. En este caso las cosas pronto desembocan en una situación precaria tanto para los simios como para los humanos. Sin embargo, y a pesar de las notables diferencias que existirían entre estos animales superdotados y nosotros, podemos imaginar que algunos de sus valores fundamentales se alinearían con los nuestros.
Debido a nuestra pertenencia común al orden de los primates, a la clase de los mamíferos, o incluso simplemente por poseer sistemas nerviosos capaces de experimentar dolor y placer, podemos esperar una convergencia mínima en valores como los de la sobrevivencia, la reproducción o la libertad de movimiento. Nada parecido es obvio para el caso de una IA avanzada en donde lo que encontramos es una inteligencia no orgánica completamente distinta a simios o mascotas cognitivamente superdotados.
En el caso de una IA avanzada es perfectamente posible que sus valores fundamentales, si así podemos llamarlos, no sólo no coincidan con aquellos asociados con los nuestros y con aquellos que reconocemos en los seres vivos, sino que exhiban la ausencia total de valores éticamente reconocibles.
En tal situación ya no estaríamos hablando de entidades cuyos objetivos, aunque ajenos, resulten comprensibles. Más bien, estaríamos hablando de entidades cuyos objetivos y valores potenciales serían tan ajenos a los nuestros que cuesta trabajo identificarlos incluso como valores. Pensemos aquí en el famoso escenario imaginario del filósofo Nick Bostrom en donde una IA superior destruye el mundo para lograr su objetivo banal de hacer clips.
TE PUEDE INTERESAR: Proponen ley para regular la IA, a través del IFT
Todo esto sugiere que nos equivocamos al pensar en escenarios en los que una IA avanzada amenaza a la humanidad tratando de imponer sus valores de dominio y conquista. La realidad es más trivial y en cierto modo más inquietante. Hablamos más bien de la posibilidad de generar sistemas intelectualmente superdotados, pero esencialmente amorales, guiados por principios desconocidos y desde nuestra perspectiva arbitrarios.
Esto hace enormemente difícil la tarea indispensable de hacer inteligibles y previsibles sus acciones. De ahí la urgencia y la importancia de poder desarrollar en estos sistemas una convergencia entre sus valores y los nuestros. Quizá de esto dependa nuestra sobrevivencia, uno de los valores fundamentales que esperemos sea compartido con estas futuras tecnologías.
jhagsh@rit.edu