Cinco opciones para regular el sector de la IA
COMPARTIR
El panorama regulatorio global para esta tecnología, sin fronteras, está de lo más fragmentado y es tremendamente confuso
Por Cecilia Kang y Adam Satariano
Aunque lo que han intentado para mantenerse al día con el desarrollo de la inteligencia artificial en general no ha sido suficiente, los reguladores de todo el mundo siguen adoptando enfoques muy distintos para establecer controles en torno a esta tecnología. En consecuencia, el panorama regulatorio global para esta tecnología sin fronteras, que promete transformar el mercado laboral y contribuir a la propagación de desinformación, además de que bien podría ser un riesgo para la humanidad, está de lo más fragmentado y es tremendamente confuso.
Estos son los principales marcos para la regulación de la IA:La legislación basada en riesgos de Europa: La Ley de IA de la Unión Europea, que se negociará el miércoles, asigna regulaciones proporcionales al nivel de riesgo que presenta una herramienta de IA. La idea es crear una escala proporcional de regulaciones diseñada para asignarle las restricciones más estrictas a los sistemas de IA más riesgosos. Esta legislación pretende categorizar las herramientas de IA con base en cuatro designaciones: riesgo inaceptable, alto, limitado y mínimo.
TE PUEDE INTERESAR: Recursos del FEIEF se destinan a pago de deuda
Algunos ejemplos de riesgos inaceptables son los sistemas de IA que se encargan de la clasificación social de las personas o el reconocimiento facial en tiempo real en espacios públicos. Este tipo de sistemas estarían prohibidos. Otras herramientas menos riesgosas, como el software que genera videos manipulados e imágenes ultrafalsas (“deepfake”), deben informarles a los espectadores que el contenido que observan fue generado con IA. A los infractores podrían imponérseles multas del seis por ciento de sus ventas globales. Algunos ejemplos de sistemas de riesgo mínimo son los filtros de correo basura y los videojuegos generados con IA.
Códigos de conducta voluntarios de Estados Unidos: El gobierno del presidente Joe Biden les ha dado a las empresas cierto espacio para aplicar controles voluntarios enfocados en riesgos de seguridad. En julio, la Casa Blanca anunció que varias creadoras de IA, como Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI, habían convenido en aplicarles sus propias regulaciones a sus sistemas.
Los compromisos voluntarios incluyen pruebas realizadas por terceros a las herramientas, un proceso conocido como simulacro de ciberataque (“red-teaming”, en inglés), investigación en temas de sesgo y privacidad, intercambio de información sobre riesgos con gobiernos y otras organizaciones y desarrollo de herramientas para combatir retos de la sociedad como el cambio climático, además de incluir medidas para garantizar la transparencia y así poder identificar el material generado por IA. Las empresas ya tenían en marcha muchas de esas acciones.
Legislación de Estados Unidos basada en tecnología: Cualquier regulación sustancial de IA tendrá que venir del Congreso. El líder de la mayoría en el Senado, Chuck Schumer, demócrata de Nueva York, prometió un amplio proyecto de ley para la IA, quizá para el próximo año.
Pero hasta ahora, los legisladores solo han presentado proyectos enfocados en la producción y el despliegue de sistemas de IA. Las propuestas incluyen la creación de una agencia como la Administración de Alimentos y Medicamentos de Estados Unidos dedicada a crear normas para los proveedores de IA, autorizar licencias para sistemas nuevos y establecer estándares. Sam Altman, director ejecutivo de OpenAI, expresó su apoyo a esta idea. Google, sin embargo, propuso que el Instituto Nacional de Estándares y Tecnología, fundado hace más de un siglo sin facultades regulatorias, opere como el núcleo supervisor del gobierno.
Otros proyectos proponen detectar violaciones a derechos de autor por parte de los sistemas de IA que se apropian de propiedad intelectual para crear sus sistemas. También se han presentado propuestas para la seguridad de las elecciones y para limitar el uso de elementos ultrafalsos.
China toma medidas ágiles en las regulaciones al discurso: Desde 2021, China ha actuado con agilidad para poner en vigor regulaciones sobre los algoritmos de recomendación, el contenido sintético como las imágenes ultrafalsas y la IA generativa. Estas normas prohíben la discriminación de precios por los algoritmos de recomendación en las redes sociales, por ejemplo. Los productores de IA deben identificar el contenido sintético generado por IA. Y las normas preliminares para la IA generativa, como el chatbot de OpenAI, requieren que los datos de entrenamiento y el contenido creado por la tecnología sean “ciertos y precisos”, medida que muchos consideran tiene por objeto aplicarle censura a lo que dicen los sistemas.
Cooperación global: Muchos expertos han comentado que, para elaborar una regulación efectiva aplicable a la IA, será necesaria una colaboración global. Hasta ahora, ese tipo de acción diplomática ha producido pocos resultados concretos. Una idea que se propuso fue crear una agencia internacional del estilo de la Agencia Internacional de Energía Atómica, cuyo objetivo fue limitar la propagación de las armas nucleares. Un reto será superar la desconfianza geopolítica, la competencia económica y los impulsos nacionalistas que se han involucrado demasiado en el desarrollo de la IA.
c.2023 The New York Times Company