La IA pronto será más inteligente que los humanos

COMPARTIR
En los últimos años estos sistemas de inteligencia artificial han superado a los humanos en varias áreas
SAN FRANCISCO — A continuación, comentaré algunos puntos que creo sobre la inteligencia artificial: creo que, en los últimos años, los sistemas de IA han empezado a superar a los humanos en una serie de ámbitos —matemáticas, codificación y diagnóstico médico, por nombrar algunos— y que cada día son mejores.
Creo que muy pronto —probablemente en 2026 o 2027, pero es posible que tan pronto como este año— una o más empresas de IA afirmarán que han creado una inteligencia general artificial (AGI, por su sigla en inglés), la cual suele definirse algo así como “un sistema de IA de uso general que puede hacer casi todas las tareas cognitivas que puede hacer un humano”.
Creo que cuando se anuncie una AGI, habrá debates sobre definiciones y discusiones sobre si cuenta o no como una AGI “real”, pero que en su mayor parte no importarán, porque el punto en un sentido más amplio —que estamos perdiendo nuestro monopolio sobre la inteligencia a nivel humano y pasando a un mundo con sistemas de IA muy potentes— será cierto.
TE PUEDE INTERESAR: Por qué a China le preocupan los aranceles de Trump a México
Creo que, durante la próxima década, una potente IA generará billones de dólares en valor económico e inclinará la balanza del poder político y militar hacia las naciones que la controlen... y que la mayoría de los gobiernos y las grandes empresas ya lo consideran obvio, como demuestran las enormes sumas de dinero que están gastando para llegar ahí primero.
Creo que la mayoría de las personas e instituciones no están preparadas en absoluto para los sistemas de IA que existen hoy en día, por no hablar de los más potentes, y que no existe ningún plan realista a ningún nivel de gobierno para mitigar los riesgos o captar los beneficios de estos sistemas.
Creo que los escépticos empedernidos de la IA —que insisten en que el progreso es tan solo una cortina de humo y que descartan la AGI como una fantasía delirante— no solo se equivocan en cuanto a los méritos, sino que están dando a la gente una falsa sensación de seguridad.
Creo que, independientemente de si piensas que la AGI será genial o terrible para la humanidad —y, sinceramente, puede que sea demasiado pronto para asegurarlo—, su llegada plantea importantes cuestionamientos económicos, políticos y tecnológicos para los que en la actualidad no tenemos respuesta.
Creo que el momento adecuado para empezar a prepararse para la AGI es ahora.
Todo esto puede parecer una locura. Pero no he llegado a estas opiniones como un futurista soñador, un inversor que exagera su cartera de IA o alguien que comió demasiados hongos alucinógenos y vio “Terminator 2”.
Llegué a ellas como un periodista que ha pasado mucho tiempo hablando con los ingenieros que construyen potentes sistemas de IA, los inversores que la financian y los investigadores que estudian sus efectos. Y he llegado a creer que lo que está ocurriendo con la IA ahora mismo es más grande de lo que la mayoría de la gente comprende.
En San Francisco, donde resido, la idea de la AGI no es radical ni exótica. Aquí la gente habla de “sentir la AGI”, y construir sistemas de IA más inteligentes que los humanos se ha convertido en el objetivo explícito de algunas de las mayores empresas de Silicon Valley. Todas las semanas, me reúno con ingenieros y empresarios que trabajan en el ramo de la IA y me dicen que el cambio —el gran cambio, el cambio que sacudirá el mundo, el tipo de transformación que nunca hemos visto antes— está a la vuelta de la esquina.
Yo también solía burlarme de la idea. Pero he llegado a creer que estaba equivocado. Algunas cosas me han convencido de tomarme más en serio el progreso de la IA.
La gente con información privilegiada está alarmada

Lo más desorientador de la industria actual de la IA es que las personas más cercanas a la tecnología —los empleados y ejecutivos de los principales laboratorios de IA— tienden a ser los más preocupados por lo rápido que está mejorando.
Esto es bastante inusual. En 2010, cuando cubría el auge de las redes sociales, nadie dentro de Twitter, Foursquare o Pinterest advertía que sus aplicaciones podrían causar un caos social. Mark Zuckerberg no estaba probando Facebook para encontrar evidencia de que pudiera utilizarse para crear nuevas armas biológicas o llevar a cabo ciberataques autónomos.
Pero, hoy en día, las personas que disponen de la mejor información sobre el progreso de la IA —la gente que construye IA potentes, que tiene acceso a sistemas más avanzados de los que ve el público en general— nos dicen que el gran cambio está cerca. Las principales empresas de IA se están preparando activamente para la llegada de la AGI y están estudiando propiedades de sus modelos que podrían ser aterradoras, como si son capaces de conspirar y engañar, a la expectativa de que se vuelvan más capaces y autónomos.
Sam Altman, director ejecutivo de OpenAI, ha escrito que “los sistemas que empiezan a apuntar a la AGI están a la vista”.
Demis Hassabis, director ejecutivo de Google DeepMind, ha declarado que la AGI está probablemente a “tres o cinco años de distancia”.
Dario Amodei, director ejecutivo de Anthropic (a quien no le gusta el término AGI, pero está de acuerdo con el principio general), me comentó el mes pasado que creía que estábamos a uno o dos años de tener “un gran número de sistemas de IA mucho más inteligentes que los humanos en casi todo”.
Quizá deberíamos descartar estas predicciones. Al fin y al cabo, los ejecutivos del sector de la IA se benefician de inflar el entusiasmo por la AGI y podrían tener incentivos para exagerar.
Pero muchos expertos independientes —como Geoffrey Hinton y Yoshua Bengio, dos de los investigadores de IA más influyentes del mundo, y Ben Buchanan, quien fue el principal experto en IA del gobierno de Biden— dicen cosas similares. Lo mismo señalan otros destacados economistas, matemáticos y funcionarios de seguridad nacional.
Para ser justos, algunos expertos dudan de que la AGI sea inminente. Pero, incluso si ignoras a todos los que trabajan en empresas de IA o tienen intereses particulares en el resultado, sigue habiendo suficientes voces independientes creíbles que prevén plazos cortos para la AGI como para que debamos tomarlas en serio.
LOS MODELOS DE LA IA MEJORAN
Para mí, la evidencia de que los sistemas actuales de IA están mejorando con rapidez, de formas que son bastante obvias para cualquiera que los utilice, es tan persuasiva como la opinión de los expertos.
En 2022, cuando OpenAI lanzó ChatGPT, los principales modelos de IA tenían problemas con la aritmética básica, solían fracasar en problemas de razonamiento complejo y a menudo “alucinaban” o inventaban hechos inexistentes. Los chatbots de aquella época podían hacer cosas impresionantes con las indicaciones adecuadas, pero nunca utilizarías uno para nada de importancia crítica.
Los modelos de IA actuales son mucho mejores. Ahora, los modelos especializados obtienen puntuaciones de nivel de medallistas en la Olimpiada Internacional de Matemáticas y los modelos de uso general se han vuelto tan buenos en la resolución de problemas complejos que hemos tenido que crear pruebas nuevas y más difíciles para medir sus capacidades. Las alucinaciones y los errores fácticos siguen ocurriendo, pero son más raros en los modelos más recientes. Y muchas empresas ya confían lo suficiente en los modelos de IA como para incorporarlos a funciones básicas de cara al cliente.
A medida que estas herramientas están mejorando, se están volviendo útiles para muchos tipos de trabajo intelectual de cuello blanco. Mi colega del Times Ezra Klein escribió hace poco que los resultados de la Investigación Profunda de ChatGPT, una función premium que produce complejos resúmenes analíticos, eran “al menos la mediana” de los investigadores humanos con los que había trabajado.
También he encontrado muchos usos para las herramientas de IA en mi trabajo. No utilizo la IA para escribir mis columnas, pero sí para muchas otras cosas: preparar entrevistas, resumir trabajos de investigación, crear aplicaciones personalizadas que me ayuden con las tareas administrativas. Nada de esto era posible hace unos años. Y me parece inverosímil que alguien que utilice estos sistemas regularmente para un trabajo serio pueda llegar a la conclusión de que han tocado techo.
Si en verdad quieres comprender cuánto ha mejorado la IA a últimas fechas, habla con un programador. Hace uno o dos años, existían herramientas de codificación con IA, pero su objetivo era más acelerar la labor de los programadores humanos que sustituirlos. Hoy en día, los ingenieros de software me dicen que la IA hace la mayor parte de la codificación real por ellos y que cada vez tienen más la sensación de que su trabajo consiste en supervisar los sistemas de IA.
Jared Friedman, socio de Y Combinator, una aceleradora de empresas emergentes, dijo hace poco que una cuarta parte del lote actual de las empresas emergentes de la aceleradora utilizaba IA para escribir casi todo su código.
“Hace un año, habrían construido su producto desde cero, pero ahora el 95 por ciento lo construye una IA”, comentó.
PREPARARSE DE MÁS ES LO MEJOR
La mayoría de los consejos que he oído sobre cómo deben prepararse las instituciones para la AGI se reducen a cosas que deberíamos estar haciendo de todos modos: modernizar nuestra infraestructura energética, reforzar nuestras defensas de ciberseguridad, acelerar el proceso de aprobación de fármacos diseñados por la inteligencia artificial, redactar normativas para evitar los daños más graves de la inteligencia artificial, impartir capacitación en inteligencia artificial en las escuelas y dar prioridad al desarrollo social y emocional sobre las habilidades técnicas que pronto quedarán obsoletas. Todas ellas son ideas sensatas, con o sin AGI.
A algunos líderes del sector tecnológico les preocupa que los temores prematuros sobre la AGI nos lleven a regular la IA de forma demasiado agresiva. Pero el gobierno de Trump ha señalado que quiere acelerar el desarrollo de la IA, no ralentizarlo. Y se está gastando tanto dinero para crear la próxima generación de modelos de IA —cientos de miles de millones de dólares, y más en camino— que parece poco probable que las principales empresas de IA frenen por voluntad propia.
Tampoco me preocupa que los individuos se preparen de más para la AGI. Creo que un riesgo más grande es que la mayoría de la gente no se dé cuenta de que una IA potente ya está aquí hasta que la tenga enfrente: cuando elimine su trabajo, la atrape en una estafa, le perjudique o a alguien a quien quiera. Esto es, a grandes rasgos, lo que ocurrió durante la era de las redes sociales, cuando no reconocimos los riesgos de herramientas como Facebook y Twitter hasta que fueron demasiado grandes y arraigadas como para cambiarlas.
Por eso creo que hay que tomarse en serio ahora la posibilidad de una AGI, aunque no sepamos exactamente cuándo llegará ni qué forma adoptará.
Si lo negamos, o si simplemente no prestamos atención, podríamos perder la oportunidad de dar forma a esta tecnología cuando más importa. c.2025 The New York Times Company