Las perspectivas reales de la IA
COMPARTIR
Las restricciones actuales tendrán un papel similar. La escasez de energía modifica la geografía de la IA. La fragmentación del hardware crea nuevos ecosistemas nacionales y corporativos
Por Jeffrey Wu, Project Syndicate.
HONG KONG- Estos últimos dos años, ha imperado una narrativa de posibilidades ilimitadas en relación con la inteligencia artificial. Modelos más grandes, entrenamientos con billones de tokens y ciclos récord de gasto en capital refuerzan una sensación de aceleración ininterrumpida. Pero los cambios tecnológicos no suelen ser tan sencillos, y la IA no es excepción. Al pasar de la experimentación a las aplicaciones reales, está claro que los límites impuestos por el mundo físico, por los mercados de capitales y por los sistemas políticos comienzan a importar más que el potencial teórico.
La restricción más inmediata es la electricidad. El ejemplo más patente es Estados Unidos, donde se prevé que la demanda de energía de los centros de datos aumente de unos 35 gigavatios a 78 GW en 2035. El norte de Virginia (mayor clúster de infraestructura de nube en el mundo) ya ha agotado en la práctica la capacidad eléctrica disponible. Las empresas proveedoras en Arizona, Georgia y Ohio advierten de que construir nuevas subestaciones puede llevar casi un decenio. Un solo campus puede requerir entre 300 y 500 MW, suministro de energía suficiente para toda una ciudad. A diferencia de fabricar chips, el tendido de líneas de alta tensión es un proceso lento.
La respuesta de los mercados muestra la rapidez y la ambición esperables. Las grandes empresas tecnológicas que se dedican a la “hiperescala” creando modelos avanzados de IA sobre una capacidad de cómputo creciente ya están entre las primeras compradoras mundiales de energía renovable a largo plazo. Se están construyendo parques solares y eólicos privados sólo para abastecer a las instalaciones de nube, y algunas empresas analizan el uso de pequeños reactores modulares de última generación como forma de eludir la lentitud de las infraestructuras municipales.
Estas iniciativas extenderán las fronteras de lo posible, pero más que eliminar restricciones, provocan redirecciones. Es probable que la próxima ola de capacidad en IA no se concentre en el norte de Virginia o Dublín, sino en regiones con abundancia de tierra, energía y agua: el Medio Oeste estadounidense, Escandinavia, partes de Medio Oriente y el oeste de China. La geografía de la IA no la escriben las preferencias, sino la física.
La siguiente restricción es el silicio, y aquí la historia se complica. Parecía que Nvidia iba a ser el sustrato universal de todo el desarrollo mundial de la IA, pero esa era está llegando a su fin. Google dio un paso importante, al realizar todo el entrenamiento de su último gran modelo de lenguaje, Gemini 3, en unidades de procesamiento tensorial (TPU) propias; Amazon, Microsoft y Meta también están desarrollando chips con el mismo objetivo (Trainium2, Maia y MTIA, respectivamente). En China, en respuesta a los controles estadounidenses a las exportaciones, la plataforma Ascend de Huawei se ha convertido en el sostén estratégico del entrenamiento de modelos locales.
Una parte de este cambio es atribuible a la maduración natural de la tecnología. Al aumentar las cargas de trabajo, se hace más eficiente usar dispositivos especializados más rápidos que seguir usando unidades de procesamiento gráfico (GPU) genéricas. Pero que esté ocurriendo ahora no es casual. La escasez, las fricciones geopolíticas y las presiones de los costos llevan a las empresas de hiperescala a asumir un papel antes reservado a las fabricantes de semiconductores. Dado que el abandono del ecosistema CUDA de Nvidia supone enormes costos organizativos, la creciente voluntad de afrontarlos indica la gravedad de la restricción. Se avecina una mayor fragmentación del panorama del hardware y, con ella, una mayor fragmentación del ecosistema de la IA. Una vez iniciada la divergencia de arquitecturas en el nivel del silicio, rara vez se vuelve atrás.
La tercera restricción, el capital, opera en forma más sutil. Los planes de inversión de las empresas de hiperescala para 2026 ya superan los 518,000 millones de dólares, casi dos tercios más que hace apenas un año. Estamos viendo la mayor construcción de infraestructuras privadas en la historia moderna. Meta, Microsoft y Google cambian sus proyecciones de gasto en capital con tanta frecuencia que a los analistas les cuesta seguir el ritmo.
Pero todavía es pronto para hablar de rentabilidad. Hace poco, Baidu declaró ingresos relacionados con aplicaciones de IA por 2,600 millones de yuanes (369 millones de dólares), obtenidos en gran medida de contratos empresariales y planes de suscripción a infraestructuras; y Tencent asegura que logró un aumento de rentabilidad en todas sus actividades maduras apelando a mejoras de eficiencia derivadas de la IA. Pero en Estados Unidos, la mayoría de las empresas todavía registran los ingresos de la IA dentro de categorías más generales relacionadas con la nube.
Esta amplia divergencia entre la adopción de la IA y su monetización no es nada nuevo. En olas tecnológicas anteriores, fue común que entre la inversión en infraestructura y las ganancias de productividad pasaran años. La limitación no es resultado de falta de confianza de los inversores, sino de la presión estratégica generada por el entusiasmo: diferentes empresas se guían por diferentes ideas de valor, porque sus modelos de negocio y sus estructuras de costos así lo exigen.
Muchos sectores sencillamente no pueden adoptar la IA al ritmo al que se lanzan nuevos modelos. Los grandes bancos, por ejemplo, siguen sujetos a marcos regulatorios y de seguridad que exigen aplicaciones de software totalmente auditables, in situ y con aislamiento físico. Estas normas los excluyen de inmediato del uso de los modelos más avanzados, que dependen de la «orquestación en nube» y del lanzamiento continuo y frecuente de versiones nuevas. Los sistemas sanitarios enfrentan limitaciones similares, y los gobiernos incluso más. El problema no es la capacidad teórica de la IA, sino la dificultad para incorporarla a sistemas heredados que se diseñaron para otras épocas.
La suma de estas fuerzas hace pensar en un futuro muy diferente al que sugiere la narrativa mediática habitual. La IA no está convergiendo hacia una única frontera universal. Se está formando una variedad de arquitecturas regionales e institucionales, en respuesta a una diversidad de limitaciones: falta de energía suficiente en Estados Unidos, restricciones a la disponibilidad de terrenos y a la refrigeración en Singapur y Japón, escasez «geopolítica» en China (donde los controles occidentales a las exportaciones limitan el acceso a chips y hardware de nube avanzados), fricciones regulatorias en Europa y rigideces organizacionales en el mundo empresarial. Aunque la tecnología sea global, su implementación es local.
Felizmente, las restricciones del mundo real no son enemigas del progreso. Es común que den a los sistemas nuevos una estructura en torno a la cual desarrollarse. El excedente de fibra óptica de fines de los noventa, que al principio se criticó como un ejemplo de derroche, terminó siendo la base para el auge del streaming, las redes sociales y la computación en la nube.
Las restricciones actuales tendrán un papel similar. La escasez de energía modifica la geografía de la IA. La fragmentación del hardware crea nuevos ecosistemas nacionales y corporativos. Las asimetrías de capital llevan a las empresas a equilibrios estratégicos diferentes. Los límites institucionales definen los primeros casos de uso reales.
El próximo decenio de la IA no lo dominarán los sistemas con mayor capacidad teórica, sino los ecosistemas con mayor habilidad para convertir los límites del mundo real en ventajas de diseño. Las posibilidades definen el horizonte, pero el camino que finalmente tome el mundo dependerá de las limitaciones. Copyright: Project Syndicate, 2025.
Jeffrey Wu es director en MindWorks Capital.