Desafíos éticos de la inteligencia artificial en la democracia
COMPARTIR
En el marco del “Día Internacional de la Democracia”, la Organización de las Naciones Unidas (ONU) ha destacado la importancia de la Inteligencia Artificial (IA) en los países democráticos y las ventajas que esta tecnología puede ofrecer en términos de participación pública y seguridad. Sin embargo, el secretario general António Guterres advirtió que, sin el acompañamiento adecuado, la IA también podría “tener graves consecuencias para la democracia, la paz y la estabilidad”.
Esto nos lleva a preguntarnos: ¿es el uso de la inteligencia artificial beneficioso o perjudicial para una sociedad democrática? La respuesta genera un intenso debate y existen posturas encontradas al respecto, pero lo que es innegable es que la IA ha llegado para quedarse. La inteligencia artificial se basa en la premisa de que las capacidades cognitivas humanas, como el aprendizaje, el razonamiento, el cálculo, la percepción, la memoria e incluso la creatividad científica y artística, pueden ser descritas con tanta precisión que es posible programar una computadora para emularlas.
TE PUEDE INTERESAR: Septiembre: un mes de reflexión y acción en derechos sexuales y reproductivos de las mujeres
Los desafíos éticos que plantea la IA son diversos, y se prevé que su uso aumente en el futuro, lo que podría tener consecuencias aún más significativas. Hasta ahora, no se ha establecido un marco legal global que regule la investigación futura en este ámbito. La IA ofrece un potencial considerable para mejorar la equidad en los procesos democráticos. No obstante, su implementación presenta desafíos éticos que deben ser abordados de manera integral y urgente. Establecer marcos regulatorios sólidos, promover la transparencia y la responsabilidad, fomentar la educación digital y desarrollar sistemas de IA éticos son medidas esenciales para aprovechar los beneficios de esta tecnología mientras se protege la integridad de los procesos electorales y la democracia.
El “Tech Accord to Combat Deceptive Use of AI in 2024 Elections” es un conjunto de compromisos enfocados en implementar tecnología que contrarreste el contenido perjudicial generado por IA, cuyo objetivo es engañar a los votantes. Los firmantes de este acuerdo se comprometen a desarrollar herramientas que detecten y combatan la difusión de este tipo de contenido en línea, a impulsar campañas educativas y a garantizar la transparencia, entre otras acciones. El acuerdo también resalta la importancia de rastrear el origen del contenido engañoso relacionado con las elecciones y la necesidad de sensibilizar al público sobre este problema. Estas medidas han incrementado la protección de las comunidades en línea contra el contenido dañino generado por IA y se basan en los esfuerzos continuos de empresas individuales.
La IA también otorga a actores malintencionados un abanico de técnicas para influir en la opinión pública. Por ejemplo, puede utilizarse para monitorear el entorno informativo y detectar divisiones sociales emergentes. Las capacidades de análisis de redes de la IA permiten dirigirse de manera más efectiva a audiencias específicas y elaborar perfiles de votantes, en un proceso conocido como microfocalización política. Además, la IA facilita la creación rápida de contenido, lo que podría dar lugar a sitios web de noticias falsas que se presenten como medios legítimos. Asimismo, las herramientas de IA permiten generar imágenes a partir de texto o imitar la voz de una persona, mientras que los videos deepfake son cada vez más fáciles de producir y más convincentes. El próximo gran avance en IA generativa podría ser la conversión de texto a video.
En este contexto, la UNESCO ha planteado tres medidas fundamentales para enfrentar los desafíos que presenta el uso de la inteligencia artificial en los procesos democráticos. La primera medida se centra en fomentar la regulación de las plataformas digitales, con el propósito de establecer normativas que garanticen la veracidad de la información disponible para los votantes. Esto busca asegurar un entorno digital más transparente y confiable, particularmente durante los procesos electorales.
La segunda medida tiene como objetivo garantizar la seguridad de los comunicadores, y para ello se recomienda incorporar una perspectiva de género en las políticas de protección. Esta recomendación pone especial atención en la integridad de las mujeres y de los periodistas independientes mediante acciones que prevengan y combatan la violencia de género, tanto en línea como fuera de ella. Además, se busca que el periodismo pueda ejercerse de manera libre y segura.
TE PUEDE INTERESAR: Edadismo: el más olvidado de los ‘-ismos’
Finalmente, la tercera medida propuesta es la promoción de la alfabetización mediática entre los ciudadanos. Esta iniciativa tiene como finalidad proporcionar a los electores las herramientas y habilidades necesarias para identificar noticias falsas y distinguir entre información veraz y desinformación, contribuyendo así a una sociedad más informada y crítica.
En conclusión, el uso de la inteligencia artificial por parte de diversos actores, incluidos los Estados, es innegable. El rápido y constante desarrollo de las herramientas de IA nos obliga a revisar su implementación para evitar un mal uso de esta tecnología que, como mencioné al principio, ha llegado para quedarse en nuestras sociedades democráticas.
La autora es auxiliar de investigación del Centro de Estudios Constitucionales Comparados de la Academia IDH
Este texto es parte del proyecto de Derechos Humanos de VANGUARDIA y la Academia IDH