Humanizar la inteligencia artificial: Una revolución con rostro humano

Opinión
/ 23 marzo 2025

Por: José Rafael Grijalva Eternod

Vivimos en una era de transformaciones aceleradas. La Cuarta Revolución Industrial impulsada por la inteligencia artificial (IA) y también conocida como Revolución Algorítmica o Revolución 4.0, está reconfigurando la forma en que trabajamos, tomamos decisiones y nos relacionamos con el mundo. Desde asistentes virtuales que responden consultas hasta sistemas capaces de determinar si alguien es apto para un crédito bancario, diagnosticar enfermedades o predecir la reincidencia delictiva en sistemas judiciales, la IA se ha convertido en una herramienta clave en nuestra vida cotidiana con un impacto cada vez mayor.

Sin embargo, a pesar de sus innumerables beneficios, esta revolución también plantea retos profundos. ¿Quién controla sus decisiones? ¿Cómo aseguramos que su uso no genere discriminación, erosión de la privacidad o vigilancia excesiva? ¿Qué papel deben jugar los Estados, las empresas y la sociedad para garantizar que la IA respete los derechos humanos? El verdadero desafío no es solo desarrollar inteligencia artificial más avanzada, sino hacerlo con un enfoque que ponga a la persona humana en el centro, pues la tecnología debe estar al servicio de la humanidad, y no al revés.

TE PUEDE INTERESAR: El Podcast AiDH: una nueva forma de conversar

Históricamente, cada revolución industrial ha traído consigo oportunidades y transformaciones profundas en la sociedad, obligando a replantear las reglas del juego. En la Primera Revolución Industrial, las máquinas sustituyeron el trabajo manual, impulsando nuevas regulaciones laborales. La Segunda Revolución, con la producción en masa, llevó a la consolidación de los derechos sindicales. La Tercera Revolución, con la informática y la automatización, redefinió la privacidad, impulsó normativas sobre protección de datos y transformó la manera en que procesamos información y nos comunicamos.

Hoy, la Revolución 4.0 nos enfrenta a un nuevo escenario en el que la IA ha dejado de ser una simple herramienta para convertirse en un agente que toma decisiones con impacto directo en nuestra vida cotidiana. Esto hace más urgente que nunca la necesidad de humanizar su desarrollo y uso. Sin embargo, para lograrlo, es fundamental que todos los actores involucrados —desarrolladores, empresas, Estados y usuarios— asuman un compromiso con una IA ética y responsable

Y es que la creación de sistemas de IA no siempre es neutral. Los algoritmos aprenden de datos proporcionados por humanos, y si estos datos contienen sesgos, la IA los replicará. Esto ya ha ocurrido en diversas áreas. En el ámbito judicial, por ejemplo, se han documentado casos en los que algoritmos de predicción delictiva han reforzado estereotipos raciales y socioeconómicos. En Estados Unidos, un software utilizado por tribunales recomendaba penas más severas para personas afrodescendientes, incluso cuando sus antecedentes eran similares a los de personas blancas que recibían una evaluación de bajo riesgo. Esto demuestra que, sin supervisión adecuada, la IA no solo puede fallar, sino que los sesgos algorítmicos pueden perpetuar desigualdades y violar derechos como el acceso a la justicia y la presunción de inocencia.

Pero el problema no se limita al sistema judicial. En varios países, se ha utilizado IA para la vigilancia masiva, recopilando y analizando datos de la población sin su consentimiento. En algunos casos, se ha recurrido al reconocimiento facial para monitorear ciudadanos en espacios públicos, lo que ha generado preocupaciones sobre la privacidad y la libertad de expresión. En China, por ejemplo, el sistema de crédito social evalúa el comportamiento ciudadano mediante la recopilación de datos personales con IA, afectando la posibilidad de acceder a servicios básicos. En otros lugares, se ha denunciado que tecnologías similares han sido empleadas para espiar a periodistas y activistas.

Ante estos riesgos, la comunidad internacional ha comenzado a tomar medidas para regular el uso de la IA y asegurar que su desarrollo respete la dignidad humana. La ONU, por ejemplo, ha advertido sobre los peligros de una IA no regulada y ha impulsado principios para su desarrollo y aplicación con un enfoque centrado en las personas. La Unión Europea ha dado un paso más con la creación del Acta Europea sobre IA que, entre otras novedades, clasifica los sistemas de inteligencia artificial según su nivel de riesgo y prohíbe aquellos que puedan vulnerar libertades esenciales, como la vigilancia indiscriminada. Otros países, como Canadá o Corea del Sur, han implementado regulaciones que obligan a las empresas a garantizar transparencia en el uso de IA en ámbitos como la contratación laboral y la toma de decisiones automatizadas.

Estas iniciativas son un primer paso, pero aún falta mucho por hacer. Para avanzar en el uso responsable de la IA, es fundamental diseñar algoritmos con criterios éticos claros y establecer mecanismos de supervisión que prevengan sesgos y abusos. Las empresas deben asumir su responsabilidad en el desarrollo y aplicación de estas tecnologías, mientras que los Estados deben consolidar marcos normativos que garanticen la transparencia y la protección de los derechos fundamentales.

TE PUEDE INTERESAR: AiDH, aniversario 10: ¡Imagina la magia morada!

El futuro de la IA aún no está definido, y las decisiones que tomemos hoy determinarán si se convierte en una aliada para el progreso o en una amenaza para las libertades. No se trata de frenar la innovación, sino de encauzarla bajo principios éticos y jurídicos que aseguren transparencia, equidad y respeto a la dignidad humana.

La discusión sobre los desafíos que plantea la IA apenas comienza, pero hay algo que parece indiscutible: la inteligencia artificial del futuro debe tener un rostro humano.

El autor es Investigador del Centro de Educación para los Derechos Humanos de la Academia IDH

COMENTARIOS

NUESTRO CONTENIDO PREMIUM