Las naciones están perdiendo una carrera global para tener bajo control los peligros de la IA
COMPARTIR
Los legisladores de la Unión Europea habían obtenido ideas de miles de expertos en IA durante tres años, cuando el tema ni siquiera se abordaba en otros países
Por Adam Satariano y Cecilia Kang
Cuando los líderes de la Unión Europea presentaron un proyecto de ley de 125 páginas con el propósito de regular el sector de la inteligencia artificial en abril de 2021, lo promovieron como un modelo global para manejar esa tecnología.
Los legisladores de la Unión Europea habían obtenido ideas de miles de expertos en IA durante tres años, cuando el tema ni siquiera se abordaba en otros países. El resultado fue una política “trascendental” y garantizada para “funcionar en el futuro”, según Margrethe Vestager, encargada de la política digital aplicable en el bloque de 27 naciones.
Entonces apareció ChatGPT.
TE PUEDE INTERESAR: Guterres invoca el artículo 99 de la ONU para pedir un alto al fuego en Gaza
El lanzamiento del chatbot de espeluznante similitud con un ser humano, que se volvió viral el año pasado gracias a las respuestas que genera para distintas entradas, tomó por sorpresa a los legisladores europeos. El tipo de IA detrás de ChatGPT ni siquiera se mencionaba en el proyecto de ley y no fue un tema central durante los diálogos sobre la política. Los legisladores y sus asesores intercambiaron un torrente de llamadas y mensajes de texto para solucionar ese vacío, pues los ejecutivos del sector tecnológico advirtieron que, si las regulaciones eran demasiado agresivas, Europa podría encontrarse en una posición de desventaja económica.
Incluso ahora, los legisladores europeos debaten qué hacer y ponen en riesgo la legislación. “Siempre estaremos rezagados dada la velocidad de la tecnología”, afirmó Svenja Hahn, integrante del Parlamento Europeo que participó en la preparación de la ley sobre IA.
Los legisladores y reguladores de Bruselas, Washington y el resto del mundo están perdiendo la batalla para regular la IA y batallan para ponerse al día, en particular ahora que aumenta el desasosiego ante la posibilidad de que esta poderosa tecnología elimine empleos debido a la automatización, impulse tremendamente la propagación de desinformación y llegue a desarrollar su propio tipo de inteligencia. Las naciones han actuado con agilidad para abordar los posibles peligros de la IA, pero la evolución de la tecnología tomó por sorpresa a los funcionarios europeos, mientras que los legisladores estadounidenses han aceptado con toda franqueza que apenas comprenden cómo funciona.
El resultado ha sido un sinnúmero de respuestas. El presidente Joe Biden emitió una orden ejecutiva en octubre sobre los efectos de la IA para la seguridad nacional, en tanto los legisladores debaten qué medidas, en su caso, deben aprobar. Japón se encuentra en proceso de elaborar lineamientos no obligatorios para la tecnología, mientras que China ha impuesto restricciones sobre ciertos tipos de IA. El Reino Unido ha dicho que las leyes actuales son adecuadas para regular la tecnología. Arabia Saudita y los Emiratos Árabes Unidos han canalizado fondos del gobierno a la investigación de la IA.
En la raíz de estas acciones fragmentadas hay una disparidad fundamental. Los sistemas de IA avanzan con tal rapidez y son tan impredecibles que los legisladores y reguladores no pueden llevarles el paso. Esa brecha se ha agravado debido al déficit de conocimiento sobre IA de los gobiernos, la compleja burocracia y el temor de qué demasiadas reglas podrían limitar involuntariamente los beneficios de la tecnología.
Incluso en Europa, que quizá sea el regulador tecnológico más agresivo del planeta, la IA ha confundido a los encargados de las políticas.
La Unión Europea ha dado marcha adelante con su nueva legislación, la Ley de IA, a pesar de los desacuerdos en cuanto a cómo manejar a los fabricantes de los sistemas de IA más recientes. Un convenio definitivo, que se espera ya para este miércoles, podría restringir ciertos usos riesgosos de la tecnología y crear requisitos de transparencia sobre el funcionamiento de los sistemas subyacentes. Pero incluso si se aprueba, no se espera que entre en vigor al menos por otros 18 meses (toda una vida en el desarrollo de la IA) y no se sabe a ciencia cierta cómo se haría valer.
“Nadie sabe si es posible regular esta tecnología o no”, enfatizó Andrea Renda, investigador del Centro Europeo de Estudios Políticos, un grupo de expertos de Bruselas. “Existe el riesgo de que este texto de la Unión Europea termine por ser prehistórico”.
La falta de normas ha dejado un vacío. Google, Meta, Microsoft y OpenAI, la creadora de ChatGPT, se controlan solas justo ahora que compiten para crear sistemas avanzados de IA y beneficiarse gracias a ellos. Muchas empresas preferirían códigos de conducta no obligatorios que les den margen para acelerar el desarrollo, así que cabildean para flexibilizar las regulaciones propuestas y crean enfrentamientos entre los gobiernos.
Si no se adopta pronto un frente unido de acción, algunos funcionarios advirtieron, es posible que los gobiernos queden todavía más rezagados con respecto a los creadores de IA y sus descubrimientos.
“Nadie, ni siquiera los creadores de estos sistemas, saben qué podrán hacer”, explicó Matt Clifford, asesor del primer ministro británico, Rishi Sunak, quien presidió una Cumbre sobre Seguridad de la IA el mes pasado a la que asistieron 28 países. “La urgencia se debe a que de verdad nos preguntamos si los gobiernos están equipados para lidiar con los riesgos y mitigarlos”.
Europa toma la delantera
A mediados de 2018, 52 académicos, expertos en ciencias de la computación y abogados se reunieron en el hotel Crowne Plaza de Bruselas para dialogar acerca de la IA. Los funcionarios de la Unión Europea los seleccionaron para darles asesoría con respecto a la tecnología, que comenzaba a llamar la atención debido a los vehículos autónomos y los sistemas de reconocimiento facial.
El grupo debatió si había suficientes reglas europeas para ofrecer protección contra la tecnología y consideraron posibles lineamientos éticos, indicó Nathalie Smuha, investigadora del área legal en Bélgica que coordinó el grupo.
En su diálogo sobre los posibles efectos de la IA (incluido el riesgo que implica la tecnología de reconocimiento facial para la privacidad de las personas), reconocieron que “había muchísimos vacíos legales” y se preguntaron qué sucedería “si las personas no se apegan a esos lineamientos”.
En 2019, el grupo publicó un informe de 52 páginas con 33 recomendaciones, incluida mayor supervisión para las herramientas de IA que podrían dañar tanto a los individuos como a la sociedad.
Este informe causó revuelo en el mundo insular de la legislación de la Unión Europea. Ursula von der Leyen, presidenta de la Comisión Europea, hizo prioritario ese tema en su agenda digital. Se designó a un grupo de 10 personas al que se le encomendó trabajar en las ideas del grupo y elaborar una ley. Otro compromiso en el Parlamento Europeo, el poder legislativo paralelo de la Unión Europea, sostuvo casi 50 audiencias y reuniones para considerar los efectos de la IA en áreas como la ciberseguridad, la agricultura, la diplomacia y la energía.
En 2020, los legisladores europeos decidieron que la mejor estrategia sería concentrarse en el uso dado a la IA en vez de la tecnología subyacente. Concluyeron que no es posible calificar a la IA como inherentemente buena o mala; todo depende de cómo se aplica.
Así que cuando se dio a conocer la Ley de IA en 2021, se concentró en usos de “alto riesgo” de la tecnología, en la policía, las admisiones escolares y las contrataciones. Evitó casi por completo regular los modelos de IA que los impulsan, con excepción de aquellos identificados como peligrosos.
Conforme a la propuesta, las organizaciones que ofrecen herramientas de IA riesgosas deben cumplir ciertos requisitos para garantizar que esos sistemas sean seguros antes de lanzarse. El software de IA que creó videos manipulados e imágenes ultrafalsas (“deepfake”) debe aclarar que las personas ven contenido generado por IA. Otros usos se prohibieron o restringieron, como el software de reconocimiento facial en vivo. A quienes contravengan esta disposición podrían imponérseles multas del seis por ciento de sus ventas globales.
Algunos expertos advirtieron que el proyecto de ley no incluía suficientes normas para las altas y bajas futuras de la IA.