Open AI comparte sus planes para suprimir información errónea relacionada con las elecciones globales de 2024
Uno de ellos es el uso de criptografía, estandarizada por la Coalición para la Procedencia y Autenticidad del Contenido
Mientras Estados Unidos, México y otros países se preparan para las elecciones presidenciales de 2024, Open AI comparte sus planes para suprimir la información errónea relacionada con las elecciones en todo el mundo, centrándose en aumentar la transparencia en torno a la fuente de la información.
Uno de ellos es el uso de criptografía, estandarizada por la Coalición para la Procedencia y Autenticidad del Contenido, para codificar la procedencia de las imágenes generadas por DALL-E 3.
TE PUEDE INTERESAR: Biden vuelve a incluir a los hutíes como grupo terrorista después de meses de ataques en el Mar Rojo
Esto permitirá que la plataforma identifique mejor las imágenes generadas por IA utilizando un clasificador de procedencia, para ayudar a los votantes a evaluar la confiabilidad de cierto contenido.
El Wall Street Journal tomó nota del nuevo cambio de política, publicado por primera vez en el blog OpenAI.
La publicación del blog establece que los usuarios, creadores, aquellos que usan ChatGPT y Dall-E (generador de imágenes) tendrán prohibido usar herramientas OpenAI para hacerse pasar por candidatos o gobernadores. Además, los usuarios tampoco podrán utilizar las herramientas OpenAI para hacer campañas políticas, desalentar la votación o tergiversar el proceso de votación.
La declaración dice: “No permitimos solicitudes que disuadan a las personas de participar en procesos democráticos, por ejemplo, tergiversando los procesos y calificaciones de votación (por ejemplo, cuándo, dónde o quién tiene derecho a votar) o desalentando la votación (por ejemplo, argumentando que un voto no tiene sentido). Con los nuevos GPT, los usuarios pueden informarnos sobre posibles infracciones”.
Además de endurecer sus políticas sobre desinformación electoral, OpenAI también planea incorporar credenciales digitales de la Coalición para la Procedencia y Autenticidad del Contenido (C2PA) en imágenes generadas por Dall-E “de principios de este año”.
Microsoft, Amazon, Adobe y Getty también están trabajando actualmente con C2PA para combatir la desinformación mediante la generación de imágenes de IA.
El sistema de credenciales digitales codificaría las imágenes con su origen, haciendo mucho más fácil identificar las imágenes generadas artificialmente sin tener que buscar manos extrañas u otros elementos que, sólo después de una cuidadosa visualización de la imagen, dejen claro que se trata de un falso.
OpenAI también dice que pronto trabajará con periodistas, investigadores y plataformas para obtener comentarios sobre su “clasificador de procedencia”. Sobre el mismo tema, los usuarios de ChatGPT comenzarán a ver noticias en tiempo real de todo el mundo, con atribuciones y enlaces.
También serán dirigidos a CanIVote.org, la fuente oficial en línea sobre la votación en los Estados Unidos, cuando hagan preguntas de procedimiento en el chat sobre dónde votar o cómo votar.
Todas estas herramientas se encuentran actualmente en implementación.
OpenAI dice que las lecciones aprendidas de estas medidas iniciales, si tienen éxito, le ayudarán a difundir estrategias similares en todo el mundo.
Mientras tanto, la publicación concluye con la promesa de la compañía de hacer más anuncios en los próximos meses: “Tendremos más para compartir en los próximos meses. Esperamos seguir colaborando y aprendiendo de los socios para anticipar y prevenir posibles abusos de nuestras herramientas antes de las elecciones en todo el mundo de este año”.