Las reglas de la IA no deberían fijarlas las megatecnológicas

+Seguir en Seguir en Google
Opinión
/ 8 abril 2026

La experiencia de la India sirve de modelo a los países que buscan poner la IA al servicio del interés público

Por Gabriela Ramos, Project Syndicate.

CIUDAD DE MÉXICO – La disputa que se desarrolla entre Anthropic y el gobierno del presidente estadounidense Donald Trump revela algo muy preocupante sobre el estado actual de la gobernanza de la inteligencia artificial. Al parecer, los límites éticos le preocupan más a una empresa privada que al ejército más poderoso del mundo.

A principios de marzo, el Departamento de Defensa de los Estados Unidos designó a Anthropic como “riesgo para la cadena de suministro”. Esta medida inusual siguió a la insistencia de la empresa en que se establecieran salvaguardas contra el uso de su tecnología para la vigilancia masiva de los estadounidenses o como parte de armas plenamente autónomas. La respuesta del Pentágono fue incluir a Anthropic en una lista que normalmente está reservada a entidades extranjeras a las que se considera una amenaza para la seguridad nacional. Más tarde Anthropic presentó una demanda contra la medida.

Más allá de lo que se piense sobre los motivos de Anthropic, este episodio pone de relieve lo inadecuados que se han vuelto los marcos de gobernanza. Cuando la responsabilidad de insistir en ciertos límites éticos básicos recae en las empresas privadas, resulta evidente que los sistemas que deberían proteger el interés público frente a tecnologías potencialmente peligrosas han fracasado.

Felizmente, la Cumbre sobre el Impacto de la IA celebrada en febrero en la India demostró que no es demasiado tarde para cambiar de rumbo. Startups de todo el mundo están desarrollando sistemas diseñados en forma explícita para asegurar que su despliegue sea seguro y ético, y organizaciones civiles usan la IA para hacer frente a retos sociales apremiantes, entre ellos la violencia contra mujeres y niñas. Al mismo tiempo, en los últimos años se han registrado reducciones de hasta un 90 % en los costos de las aplicaciones de IA, y el crecimiento de ecosistemas de código abierto puso potentes herramientas al alcance de actores de menor tamaño.

Esta es la revolución de la IA que muchos esperábamos hace tiempo: una en la que el progreso tecnológico se guía por los valores democráticos y por el respeto de los derechos humanos. Esa misma visión inspiró mi trabajo en la Recomendación de la UNESCO sobre la ética de la IA (primer marco mundial de este tipo) y en los Principios de la OCDE sobre la IA.

La experiencia de la India sirve de modelo a los países que buscan poner la IA al servicio del interés público. Con su cuantiosa inversión en infraestructura pública digital (se destacan el sistema de identificación biométrica Aadhaar y la Interfaz de Pagos Unificada), el país ha dado un ejemplo de cómo desplegar tecnologías a gran escala para satisfacer las necesidades cotidianas de la ciudadanía.

Pero la disputa en torno a Anthropic pone de relieve una tensión creciente entre la gobernanza firme de la IA y el deseo de los gobiernos de atraer inversiones. Los modelos de negocio del puñado de empresas estadounidenses que hoy dominan la vanguardia de la IA se definen por una intensa competencia (entre ellas mismas y con sus homólogas chinas), y las autoridades se muestran reacias a imponer reglas que puedan ahuyentarlas.

Esta dinámica se evidenció durante la Cumbre de Acción sobre la IA celebrada el año pasado en París, donde la cobertura mediática se centró en los compromisos de inversión de las megatecnológicas conseguidos por Francia, en vez de hablar de iniciativas de interés público como Current AI o la Coalición para el Desarrollo Sostenible a través del Deporte.

El resultado es que estas cumbres actúan cada vez más como plataformas para que los gobiernos anuncien inversiones y acuerdos sobre centros de datos. Es elocuente el hecho de que la imagen más emblemática de la Cumbre sobre el Impacto de la IA en la India fuera la del primer ministro Narendra Modi rodeado de directores ejecutivos del sector tecnológico, entre ellos Sundar Pichai (Alphabet), Sam Altman (OpenAI) y Dario Amodei (Anthropic).

El propósito original de estas reuniones era fomentar la cooperación multilateral para la gobernanza de tecnologías transformadoras; que se hayan convertido en plataformas de promoción de inversiones ilustra lo difícil que se ha vuelto mantener niveles significativos de supervisión sobre esas tecnologías. A pesar de las diversas modalidades probadas por las autoridades (desde la adopción de principios voluntarios hasta la aprobación de leyes vinculantes como la Ley de IA de la Unión Europea), las rivalidades geopolíticas y las presiones comerciales siguen alentando una competencia desregulatoria entre los gobiernos.

Por supuesto que no todos los países necesitan confrontar con las megatecnológicas en el nivel internacional. Pero aun así, los gobiernos deben organizarse en el nivel local, fijando reglas claras y desarrollando capacidades para su fiscalización.

Un instrumento poderoso en este sentido son los procesos de compra pública, ya que representan más o menos el 13 % del PIB en los países de la OCDE. Los contratos de compra pública deberían incluir cláusulas que exijan el procesamiento y almacenamiento local de los datos y la transparencia de los algoritmos, además de establecer mecanismos eficaces para la impugnación de decisiones algorítmicas perjudiciales. También pueden exigir pruebas de seguridad de los sistemas de alto riesgo antes de su despliegue, recompensar a las empresas que cumplan las normas éticas y excluir a las que no.

Pero la compra pública por sí sola no basta, también se necesitan leyes. Una de las medidas más importantes que pueden tomar los gobiernos es garantizar que nunca se conceda personalidad jurídica a los sistemas de IA, de modo que la responsabilidad siempre recaiga en un ser humano o en una institución. También deben prohibir tajantemente la extracción de datos sin consentimiento, la vigilancia masiva y el uso de la IA para la categorización de personas (profiling) y la manipulación política.

La creación de modelos fundamentales de IA no está al alcance de todos los países (ni deberían intentarlo). Un método más práctico es invertir en modelos más pequeños y de código abierto adaptados a los idiomas, las necesidades y los valores locales. Esta estrategia demanda inversiones, instituciones, infraestructura e incentivos adecuados (las «cuatro I»), pero puede ofrecer resultados a gran escala.

La Ley de IA de Europa es el intento más ambicioso hasta la fecha de aplicar este enfoque. Los críticos dicen que es burocrática y engorrosa, y hay presión creciente sobre la Comisión Europea para que postergue su implementación. Pero no hace más que reafirmar un principio básico: la tecnología no está por encima de la ley. Las empresas farmacéuticas deben cumplir normas de seguridad antes de lanzar medicamentos nuevos, y las constructoras deben certificar la seguridad estructural de los puentes que construyen. Los sistemas de IA de alto riesgo deberían estar sujetos a los mismos controles.

El ritmo de desarrollo de la IA pone de manifiesto la urgencia de esta tarea. Los países que no echen estos cimientos no sólo quedarán rezagados en la carrera tecnológica actual, sino que en un mundo donde el poder se está convirtiendo en factor determinante y la rendición de cuentas en algo opcional, podrían perder el control sobre los modos de uso de las nuevas tecnologías.

La buena noticia es que los gobiernos y los consumidores todavía tienen herramientas. El control del acceso a los mercados da a los países influencia real sobre el despliegue de los productos de IA, y la sociedad civil ha demostrado más de una vez que la presión pública coordinada puede cambiar la conducta de las empresas.

Las sociedades democráticas no pueden delegar la defensa de sus valores a las empresas privadas. Deben crear instituciones, leyes y capacidades que hagan innecesaria esa delegación, antes de que el costo de la inacción sea demasiado alto. Copyright: Project Syndicate, 2026.

Gabriela Ramos, copresidenta del Grupo de Trabajo sobre Desigualdades y Divulgación de Información Financiera de Carácter Social, fue subdirectora general de Ciencias Sociales y Humanas de la UNESCO, donde supervisó la elaboración de la Recomendación sobre la Ética de la IA, y jefa de gabinete y “sherpa” de la OCDE ante el G20, el G7 y la APEC.

Project Syndicate produce y distribuye análisis originales y de alta calidad a una audiencia global. Con contribuciones exclusivas de destacados líderes políticos, legisladores, académicos, empresarios y activistas cívicos de todo el mundo, ofrecemos a los lectores análisis e información de vanguardia.

NUESTRO CONTENIDO PREMIUM