Europa y Estados Unidos planean una ley para la regular la inteligencia artificial
COMPARTIR
Mientras que legisladores europeos están por terminar la redacción de una ley para regular a la inteligencia artificial, el gobierno de Biden junto con los líderes en el Congreso también están planeando para contener esta tecnología
Nueva York- La semana pasada, en una declaración ante el Senado, Sam Altman, director ejecutivo de OpenAI, fabricante de la sensación de la inteligencia artificial ChatGPT, recomendó la creación de una agencia federal con facultades de supervisión y concesión de licencias. Y el tema se mencionó en la cumbre del Grupo de los Siete en Japón.
Entre estos planes y compromisos de gran alcance, la ciudad de Nueva York se ha posicionado como una pionera modesta en cuanto a la regulación de la inteligencia artificial.
TE PUEDE INTERESAR: Ya está en México la app de ChatGPT, pero sólo con iOS
En 2021, el gobierno de la ciudad aprobó una ley y el mes pasado, adoptó normas específicas para un uso de alto riesgo de esta tecnología: decisiones de contratación y ascensos. La ley entrará en vigor a partir de julio.
La ley de la ciudad exige que las empresas que usen software de inteligencia artificial para sus contrataciones avisen a los candidatos que se está utilizando un sistema automatizado. También obliga a las empresas a tener auditores independientes que revisen la tecnología cada año para verificar que no contenga sesgos. Los candidatos a una vacante pueden preguntar y comprobar cuáles de sus datos se recopilan y analizan. Las empresas recibirán multas en caso de infracción.
Este método focalizado de la ciudad de Nueva York representa un frente importante en materia de regulación de la inteligencia artificial. Los expertos afirman que, en algún momento, los principios generales desarrollados por los gobiernos y organismos internacionales tienen que traducirse en detalles y definiciones. ¿A quién le afecta esta tecnología? ¿Cuáles son los beneficios y los daños? ¿Quién puede intervenir y cómo?
“Sin un caso de uso concreto, en realidad no puedes responder esas preguntas”, dijo Julia Stoyanovich, profesora asociada en la Universidad de Nueva York y directora de su Centro de Inteligencia Artificial Responsable.
TE PUEDE INTERESAR: Contará Windows 11 con un “asistente personal” de inteligencia artificial, el Windows Copilot
Sin embargo, incluso antes de entrar en vigor, la nueva ley de la ciudad de Nueva York ha sido un imán de críticas. Los defensores del interés público opinan que no tiene el alcance requerido, mientras que grupos empresariales la califican de impráctica.
Las quejas de ambos bandos reflejan el desafío que implica regular la inteligencia artificial, que está avanzando a un ritmo vertiginoso con consecuencias desconocidas, lo cual suscita entusiasmo y ansiedad.
Es inevitable que haya concesiones incómodas.
A Stoyanovich le preocupa que la ley tenga resquicios legales que puedan debilitarla. “Aunque es mucho mejor que no tener ninguna ley”, añadió. “Y no aprenderemos a regularla hasta que tratemos de hacerlo”.
La ley se aplica a empresas con empleados en la ciudad de Nueva York, pero los expertos en trabajo prevén que influirá en prácticas a nivel nacional. Al menos cuatro estados —California, Nueva Jersey, Nueva York y Vermont— y el Distrito de Columbia también están redactando leyes para regular la inteligencia artificial en materia de contratación. Por su parte, Illinois y Maryland ya promulgaron leyes que limitan el uso de tecnologías específicas de inteligencia artificial, a menudo en la vigilancia del lugar de trabajo y en los filtros de evaluación de los solicitantes de empleo.
La ley de la ciudad de Nueva York surgió de un choque de puntos de vista muy opuestos. El Ayuntamiento de la ciudad aprobó la ley en los últimos días del mandato del alcalde Bill de Blasio. Luego vinieron rondas de audiencias y comentarios públicos, más de 100,000 palabras, supervisados por el Departamento de Protección al Consumidor y al Trabajador de la ciudad, la agencia pública que establece las normativas.
El resultado es demasiado solidario con los intereses comerciales, según afirman algunos detractores.
“Lo que pudo haber sido una ley histórica se diluyó hasta perder su eficacia”, señaló Alexandra Givens, presidenta del Centro para la Democracia y la Tecnología, una organización de políticas públicas y derechos civiles.
Esto se debe a que la ley define una “herramienta automatizada para decisiones de empleo” como una tecnología que se usa “para ayudar o remplazar de manera significativa la toma de decisiones discrecional”, explicó Givens. Las normas que adoptó la ciudad parecen interpretar esas palabras en sentido estricto, de tal modo que el software de inteligencia artificial solo requerirá una auditoría si es el único o principal factor para una decisión de contratación o si se usa para invalidar la opinión de un humano, añadió.
Eso deja de lado el uso principal que se le da al software automatizado, afirmó Givens, en el que el gerente de contratación invariablemente toma la decisión final. El potencial de discriminación de los sistemas impulsados por inteligencia artificial suele manifestarse en los filtros que reducen cientos o miles de solicitudes a un puñado de candidatos o en el reclutamiento en línea diseñado para generar una reserva de postulantes, añadió.
Givens también criticó la ley por limitar los tipos de grupos que se consideran dentro del trato injusto. La norma cubre sesgos basados en género, raza y origen étnico, pero no la discriminación contra trabajadores mayores o con alguna discapacidad.
“Mi preocupación más grande es que esto se convierta en un modelo a nivel nacional cuando deberíamos exigirles mucho más a nuestros formuladores de políticas”, manifestó Givens.
La ciudad de Nueva York está tratando de regular las nuevas tecnologías en el contexto de leyes federales del lugar de trabajo, con lineamientos de contratación que se remontan a la década de los setenta. La norma principal de la Comisión para la Igualdad de Oportunidades en el Empleo establece que ninguna práctica ni método de selección que utilicen los empleadores debe tener un “impacto desigual” sobre un grupo legalmente protegido, como las mujeres o las minorías.
Algunas compañías han criticado la ley. Este año, en una presentación de documentos jurídicos, The Software Alliance, un grupo comercial que incluye a Microsoft, SAP y Workday, declaró que el requisito de auditorías independientes para la inteligencia artificial “no es viable”, ya que “el panorama de la auditoría está en sus etapas iniciales”, por lo que no tiene estándares definidos ni organismos profesionales de supervisión.
La ley de la ciudad de Nueva York también adopta un método para regular la inteligencia artificial que podría volverse de rigor. La medida clave de la ley es un “coeficiente de impacto”, o un cálculo del efecto de usar el software con un grupo protegido de candidatos laborales. No ahonda en explicaciones sobre cómo un algoritmo toma decisiones, un concepto conocido como “explicabilidad”.
Los críticos dicen que, en las aplicaciones de esta tecnología que pueden afectar vidas, como la contratación, las personas tienen derecho a recibir una explicación de cómo se tomó cierta decisión. Pero inteligencias artificiales como el software del estilo de ChatGPT se están volviendo más complejas, lo cual quizá aleja el objetivo de una inteligencia artificial explicable, según algunos expertos.
Ashley Casovan, directora ejecutiva del Responsible AI Institute, que está desarrollando certificaciones para el uso seguro de la inteligencia artificial en el lugar de trabajo, los servicios médicos y las operaciones financieras, concluyó: “La atención ahora se centra en el resultado del algoritmo, no en su funcionamiento”. c.2023 The New York Times Company.
Por Steve Lohr The New York Times.