¿Estamos al borde de la extinción?... expertos advierten que Inteligencia Artificial podría representar un riesgo para los humanos
COMPARTIR
Expertos de la industria tecnológica advirtieron que la Inteligencia Artificial podría presentar un riesgo muy importante para la humanidad
La inteligencia artificial (IA) plantea un “riesgo de extinción” comparable al de las pandemias o la guerra nuclear, advirtieron en una carta un grupo de más de 300 expertos e investigadores de la industria, entre los que se encuentran el director ejecutivo de Google DeepMind, Demis Hassabis; Dario Amodei, director ejecutivo de Anthropic, y el director ejecutivo de OpenAI, Sam Altman, entre otros.
“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, dice el comunicado de un párrafo publicado por Center for AI Safety, una organización sin fines de lucro con sede en San Francisco.
TE PUEDE INTERESAR: Cimbrará IA los modelos de negocio de los gigantes de la tecnología
Otros de los firmantes del comunicado son Geoffrey Hinton -quien fue bautizado como el “padrino” de la IA y tuvo parte de su carrera en Google- y Youshua Bengio, dos de los tres investigadores de IA que ganaron el Premio Turing 2018 -premio conocido popularmente como el Premio Nobel de la informática- por su trabajo en IA.
Cómo una guerra nuclear o una pandemia
Según ha explicado Dan Hendrycks, director ejecutivo de CAIS, la brevedad del mensaje responde al objetivo de agrupar el mayor número de expertos que pueden estar de acuerdo en el diagnóstico pero no en el camino a seguir. También que esta declaración supone para algunos de los firmantes exponer públicamente por primera vez sus preocupaciones sobre la IA.
“Hay una idea equivocada pero muy común, incluso en la comunidad IA, de que se trata solo de un puñado de catastrofistas, pero muchas personas expresan en privado su preocupación por estas cosas”, ha afirmado Hendrycks.
Según el CAIS, esta declaración representa una “histórica coalición de expertos en IA estableciendo el riesgo de extinción a causa de los futuros sistemas de IA avanzados como uno de los problemas más importantes del mundo”.
Una nueva alerta
Este nuevo aviso se une a la que ya es una amplia serie de opiniones y mensajes que están alertando de los riesgos de una inteligencia artificial general, más avanzada que las actuales y capaz de realizar una amplia variedad de tareas mejor que la humana, para el futuro de la sociedad.
En marzo, más de mil expertos y personalidades del mundo tecnológico, entre las que se encontraba Elon Musk, pedían una moratoria de seis meses en el entrenamiento de nuevas inteligencias artificiales mientras se desarrollaban protocolos de seguridad. Posteriormente, se han unido otras como las de los investigadores Geoffrey Hinton y Eliezer Yudkowsky, el jefe de IA del pentágono Craig Martell o el propio Sam Altman, entre otras.
Este último caso es realmente curioso por tratarse de quien es. OpenAI es la empresa que actualmente encabeza el pelotón de las compañías IA por su éxito con ChatGPT y la apuesta de Microsoft de integrar sus modelos de lenguaje en su software, pero su CEO no deja de avisar de los riesgos de la inteligencia artificial y ha abogado en reiteradas ocasiones por una regulación. La última vez, en una audiencia frente a un subcomité del Senado estadounidense el pasado 16 de mayo.
“Creo que si esta tecnología sale mal, puede salir bastante mal. Queremos trabajar con el gobierno para evitar que eso suceda”, dijo entonces Altman.