Entra en vigor la ley de inteligencia artificial de la UE, esto es lo que debes saber

Internacional
/ 1 agosto 2024

La ley de inteligencia artificial de la UE, pionera en el mundo, entra en vigor hoy con el fin de regular el uso de esta tecnología frente al riesgo que suponga para las personas e impulsar la industria europea frente a gigantes como China o EU

BRUSELAS- “Dirigirá el desarrollo de una inteligencia artificial (IA) en la que los europeos puedan confiar y proporcionará apoyo a las pymes y ‘start-ups’ europeas para que traigan al mercado soluciones de IA innovadoras”, dijo en la red social X la presidenta de la Comisión Europea, Ursula von der Leyen.

La ley permite o prohíbe el uso de la inteligencia artificial en función del riesgo que genera para las personas e identifica sistemas de alto riesgo que solo se podrán utilizar si respetan los derechos fundamentales.

TE PUEDE INTERESAR: Aprueba la UE de forma definitiva la ley de inteligencia artificial

En concreto, distingue entre sistemas de IA que presentan un “riesgo inaceptable” por ser una amenaza para los derechos fundamentales y que estarán prohibidos; sistemas de “alto riesgo”, que no estarán vetados pero sí sujetos a estrictos requisitos; IA con riesgos de transparencia, como los ‘chatbots’; y sistemas de riesgo “mínimo”, que son la mayoría y no estarán sujetos a las normas.

Siguiendo esta clasificación, la ley prohíbe todos los sistemas de categorización biométrica por creencias políticas, religiosas, filosóficas o por raza y orientación sexual; los que puntúan a las personas en función de su comportamiento y características personales; y la IA capaz de manipular el comportamiento humano.

También estarán vetados los sistemas para expandir o crear bases de datos faciales captando datos de manera indiscriminada a través de internet o de grabaciones audiovisuales; y en los centros de trabajo y escuelas estarán prohibidos los sistemas que pueden reconocer emociones.

$!La ley prohíbe todos los sistemas de categorización biométrica por creencias políticas, religiosas, filosóficas o por raza y orientación sexual.

PREVIA AUTORIZACIÓN JUDICIAL

En general, la ley de inteligencia artificial prohíbe la vigilancia masiva en espacios públicos, pero permite que en ciertos casos las fuerzas del orden puedan emplear las cámaras de identificación biométrica con previa autorización judicial, lo que constituyó uno de los puntos más difíciles de las negociaciones entre Eurocámara y Estados para pactar la ley.

Así, podrán hacer usos de estos sistemas para evitar una amenaza terrorista inminente, para localizar o identificar a una persona que haya cometido delitos de terrorismo, tráfico de personas, explotación sexual o un crimen medioambiental, por ejemplo, así como para buscar a las víctimas de estos delitos.

TE PUEDE INTERESAR: Proponen ley para regular la IA, a través del IFT

El reglamento identifica además sistemas de alto riesgo que solo podrán comercializarse si sus desarrolladores garantizan que respetan los derechos fundamentales, por ejemplo, los que puedan influir en el resultado de unas elecciones o los que empleen las entidades financieras para evaluar la solvencia y calificación crediticia de los clientes.

Por otro lado, establece una serie de obligaciones para los sistemas de inteligencia artificial de uso general en los que se basan programas como ChatGPT, de la empresa OpenAI, o Bard, de Google.

En concreto, tendrán que especificar si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial y garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.

Los Estados de la UE tienen hasta el 2 de agosto de 2025 para designar a la autoridad que se encargará de aplicar la legislación a nivel nacional, mientras que a escala europea la tarea recaerá en una nueva Oficia de IA en la Comisión Europea.

La mayoría de disposiciones de la ley se aplicarán a partir del 2 de agosto de 2026 con excepción de la prohibición de los sistemas de riesgo inaceptable, que será efectiva dentro de seis meses, y las normas para IA de uso general, que lo serán en un año.

ESTO ES LO QUE DEBES SABER DE LA LEY DE IA

Hoy 1 de agosto entra en vigor en la Unión Europea la Ley de Inteligencia Artificial (IA), la primera del mundo para regular unos sistemas que permiten actuar de manera más precisa y eficiente que los humanos en muchos ámbitos e impulsar la innovación, pero que a la vez plantean importantes riesgos que el nuevo marco común trata de evitar.

$!La presidenta de la Comisión Europea, Ursula von der Leyen, llega al inicio de la reunión semanal del Colegio Europeo de Comisarios en Bruselas, Bélgica.

Estas son las cinco claves principales del Reglamento de Inteligencia Artificial:

OBJETIVOS

Establecer un marco jurídico armonizado en la Unión Europea para el desarrollo, la comercialización, la puesta en marcha y el uso de los sistemas de Inteligencia Artificial (IA), un área que puede generar muchos beneficios pero que conlleva riesgos.

A la vez, impulsar la innovación y erigir a Europa en líder del sector.

Los diferentes niveles de riesgo implicarán una mayor o menor regulación.

A QUIÉN SE APLICA

Las normas se aplican a los proveedores de sistemas de IA que se pongan en servicio o comercialicen dentro de la UE o cuya salida se utilice en la UE, con independencia de su origen.

También a usuarios de los mismos, considerando usuarios a quienes explotan esos sistemas.

No se aplica a las autoridades públicas de terceros países ni a organizaciones internacionales cuando utilicen sistemas IA en el ámbito de la cooperación policial o judicial con la UE.

Tampoco a los sistemas de uso militar o utilizados en el contexto de la seguridad nacional, ni a los usados con el solo propósito de la investigación y el desarrollo científico.

TIPOS DE SISTEMAS DE IA

1. Prohibidos:

Algunos sistemas de IA o usos de la IA están prohibidos porque contradicen los valores de la UE, incluido el derecho a la no discriminación, la protección de datos y la privacidad.

Entre ellos se incluyen los que desplieguen técnicas subliminales para distorsionar el comportamiento de una persona de manera que pueda causarle daños físicos o psicológicos a él o a otros.

Las nuevas normas prohíben ciertas aplicaciones de inteligencia artificial que atentan contra los derechos de la ciudadanía, como los sistemas de categorización biométrica por creencias políticas, religiosas, filosóficas o por su raza y orientación sexual.

Y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial.

También se prohibirán el reconocimiento de emociones en el lugar de trabajo y en las escuelas, los sistemas de “puntuación” de las personas en función de su comportamiento o características, la actuación policial predictiva (cuando se base únicamente en el perfil de una persona o en la evaluación de sus características) y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.

No obstante, la normativa permite excepciones.

Los sistemas de identificación biométrica “en tiempo real” solo se podrán emplear si se cumplen una serie de salvaguardias. Entre estos casos pueden figurar la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista. Recurrir a estos sistemas a posteriori se considera un uso de alto riesgo, que requiere autorización judicial al estar vinculado a un delito penal.

2. De alto riesgo:

Los sistemas de IA de alto riesgo pueden presentar un riesgo potencialmente alto para los derechos y libertades de las personas físicas y, por lo tanto, están sujetos a obligaciones estrictas.

Algunos ejemplos de usos de alto riesgo de la IA son las infraestructuras críticas o la educación y la formación profesional, y el empleo.

Estos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y contar con supervisión humana.

En el área del empleo, se consideran de alto riesgo los sistemas destinados a ser utilizados para el reclutamiento o la selección de empleados o para supervisar y evaluar su rendimiento y comportamiento.

También los que se utilicen para evaluar la solvencia de las personas físicas o establecer su puntuación crediticia.

En el ámbito de la educación, entran en esta categoría los sistemas que se usen para determinar el acceso a las instituciones educativas o para supervisar y detectar el comportamiento prohibido de los estudiantes durante los exámenes.

3. Sistemas con requisitos de transparencia:

Sus responsables deben cumplir requisitos e informar para no engañar a los consumidores, haciéndoles creer que interactúan con personas reales o con contenidos creados por ellas, por ejemplo, los propietarios de chatbots o creadores de ‘deepfakes’.

4. - Sistemas IA de propósito general:

No tienen un propósito previsto inicial, pero pueden ser entrenados o modificados para cumplir un propósito que podría convertirlos en sistemas de alto riesgo.

Por tanto, deberán cumplir ciertos requisitos, que serán los que se aplican a los Sistemas de Inteligencia Artificial de Alto Riesgo, pero adaptados.

MULTAS

Se modularán según las circunstancias y valorarán el tamaño del proveedor.

Para quienes incumplan la normativa se prevén multas con un rango que va desde los 35 millones de euros (37.6 millones de dólares) o el 7 % del volumen global de negocio de las empresas, hasta los 7.5 millones de euros (8 millones de dólares) o el 1.5 % del volumen global de negocio.

FASES EN LA APLICACIÓN DE LA LEY

Tras su entrada en vigor este 1 de agosto, será de plena aplicación veinticuatro meses después, con excepción de las prohibiciones de prácticas (se aplicarán seis meses después de la fecha de entrada en vigor, es decir, en febrero de 2025).

En agosto de 2025 empezarán a aplicarse las normas para los modelos de uso generalista, como ChatGPT, y un año después, en agosto de 2026, se aplicará la ley de manera general, salvo algunas disposiciones.

Las obligaciones para los sistemas de alto riesgo comenzarán a aplicarse treinta y seis meses después, en agosto de 2027.

COMENTARIOS

Selección de los editores