Ratifica el Parlamento Europeo la ley de IA, primera en el mundo que regula esta tecnología, esto es lo que debes saber
COMPARTIR
El Parlamento Europeo ratificó la ley de IA, la primera que regula esta tecnología en el mundo, con lo que dio un paso fundamental para su aprobación definitiva en la UE
ESTRASBURGO- Esta nueva ley, que fue acordada en las negociaciones con los Estados miembros en diciembre de 2023, fue apoyada por los eurodiputados, señala un comunicado del Parlamento Europeo. Y su objetivo, prosigue el texto, “es proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad ambiental frente a la IA de alto riesgo, al tiempo que impulsa la innovación y establece a Europa como líder en este campo. El reglamento establece obligaciones para la IA en función de sus riesgos potenciales y nivel de impacto”.
Por su parte, tras emitir su voto, Thierry Breton, comisario europeo de Mercado Interior, expresó, “Celebro el abrumador apoyo del Parlamento Europeo a nuestra ley de inteligencia artificial, la primera norma global y vinculante del mundo para una inteligencia artificial fiable”.
TE PUEDE INTERESAR: Advierte Microsoft que países adversarios de Estados Unidos usan la IA para operaciones ofensivas
El comisario francés, quien fue el impulsor de esta iniciativa, precisó que “Europa es ahora un referente mundial en inteligencia artificial”, y aseguró que “estamos regulando lo menos posible, pero todo lo necesario”.
ASÍ FUE LA VOTACIÓN
Con 523 votos a favor, 46 en contra y 49 abstenciones, la Eurocámara respaldó el acuerdo que a finales del año pasado acordó un grupo conformado por representantes de las tres instituciones comunitarias y que necesitaba aún el visto bueno del pleno del Parlamento Europeo.
Tras su ratifición de esta ley, se prevé que la Unión Europea la apruebe de forma definitiva en las próximas semanas, no obstante será hasta 2026 cuando entre en vigor.
De acuerdo al comunicado publicado en el sitio web del Parlamento Europeo, “las nuevas reglas prohíben ciertas aplicaciones de inteligencia artificial que amenazan los derechos de los ciudadanos, incluidos los sistemas de categorización biométrica basados en características sensibles y la extracción no selectiva de imágenes faciales de Internet o imágenes de CCTV para crear bases de datos de reconocimiento facial”. Además, indica el texto, “estarán prohibidos el reconocimiento de emociones en el lugar de trabajo y las escuelas, la puntuación social, la vigilancia policial predictiva (cuando se base únicamente en perfilar a una persona o evaluar sus características) y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas”.
¿CÓMO PROTEGE ESTA LEY A LOS CIUDADANOS?
Esta nueva normativa permitirá o prohibirá el uso de esta tecnología tomando n cuenta el riesgo que represente para los ciudadanos y, con ella, la UE busca dar ejemplo al resto del mundo y a su vez impulsar a la industria europea frente a Estados Unidos y China.
“Es el resultado de años de preparación, consultas y negociaciones, incluido el histórico diálogo final a tres bandas de 38 horas de diciembre”, aseguró Breton.
TE PUEDE INTERESAR: 20 empresas tecnológicas se comprometen a combatir la información electoral engañosa generada con IA
Así también, explicó comisario europeo de Mercado Interior que, durante este proceso, han “resistido a los intereses especiales y a los grupos de presión que pedían excluir del reglamento los grandes modelos de IA”.
Breton comentó la prensa, que es es el resultado de “una normativa equilibrada, basada en el riesgo y preparada para el futuro”.
Por otra parte, en el comunicado se explica que “el uso de sistemas de identificación biométrica (RBI) por parte de las fuerzas del orden está prohibido en principio, excepto en situaciones enumeradas exhaustivamente y definidas de forma estricta. La RBI “en tiempo real” sólo se puede implementar si se cumplen estrictas salvaguardias, para su uso está limitado en el tiempo y en el ámbito geográfico y sujeto a autorización judicial o administrativa previa y específica. Dichos usos pueden incluir, por ejemplo, la búsqueda selectiva de una persona desaparecida o la prevención de un ataque terrorista. El uso de dichos sistemas post-facto (“RBI post-remoto”) se considera un caso de uso de alto riesgo, que requiere autorización judicial vinculada a un delito penal”.
En términos generales, con la ley de inteligencia artificial se prohíbe llevar a cabo la vigilancia masiva en espacios públicos, sin embargo, autoriza a que las fuerzas del orden puedan hacer uso de las cámaras de identificación biométrica, con previa autorización judicial, con el propósito de prevenir una amenaza terrorista inminente.
Así también le permite a las fuerzas del órden ya sea para localizar o identificar a una persona que haya cometido delitos de terrorismo, así como tráfico de personas, o explotación sexual y, por ejemplo un crimen medioambiental, y para buscar a las víctimas de estos delitos.
“También se prevén obligaciones claras para otros sistemas de IA de alto riesgo (debido a su importante daño potencial a la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho). Ejemplos de usos de IA de alto riesgo incluyen infraestructura crítica, educación y capacitación vocacional, empleo, servicios públicos y privados esenciales (por ejemplo, atención médica, banca), ciertos sistemas de aplicación de la ley, migración y gestión de fronteras, justicia y procesos democráticos (por ejemplo, influir en las elecciones)”, detalla el comunicado y continúa precisando, que estos sistemas deberán “evaluar y reducir los riesgos”, así como “mantener registros de uso”, además deberán “ser transparentes y precisos y garantizar la supervisión humana”. Los ciudadanos de la Unión Europea, tendrán derecho a poder presentar quejas en relación con los sistemas de IA y recibirán “explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos”.
En sí, la ley de Inteligencia Artificial contempla una serie de obligaciones para los sistemas de IA generativa en los que están basados los programas tales como ChatGPT, de la empresa OpenAI, o Bard, de Google
En este sentido, las empresas tendrán que determinar si un texto, una canción o una fotografía fue generada usando la inteligencia artificial y con esto, garantizar que los datos que fueron usados para entrenar a los sistemas respetan los derechos de autor.
Asimismo, se podrá identificar toda una serie de sistemas de inteligencia artificial considerados alto riesgo que sólo podría ser comercializada si sus desarrolladores certifican que son respetados los derechos fundamentales.
Por dar un ejemplo, las herramientas de IA que puedan ser capaces de influir en el resultado de unas elecciones o los que usen las entidades financieras pararealizar una evaluación sobre la solvencia y la calificación crediticia de los clientes.
Breton seguró que esta ley será “una plataforma de lanzamiento para que las nuevas empresas de la UE lideren la carrera mundial por una IA fiable”, añadió que “permitirá a los ciudadanos y empresas europeos utilizar la IA ‘made in Europe’ con seguridad y confianza”.
Esta nueva normativa también prevé la creación de la Oficina Europea de Inteligencia Artificial, misma que será la encagada de coordinar el uso de la tecnología entre las autoridades nacionales y va a estar asesorada por un grupo de científicos y de organizaciones de la sociedad civil.
Por último, Ursula Pachl, quien es la directora general adjunta de la Organización Europea de Consumidores (BEUC), precisó en un comunicado que, con esta nueva ley, la UE “está dejando claro que una tecnología tan potente como la IA, con todas sus ventajas, necesita unos límites”.
Pachl, considera que con la ley que se ratífó en el Parlamento Europeo, que los consumidores van a estar más protegidos de algunas prácticas ignominiosos y podrán llevar a cabo demandas colectivas de reparación de daño si se ven o se sienten perjudicados.
Con información de la Agencia EFE y el Parlamento Europeo.