El 14 de junio el Parlamento Europeo dio un importante paso para la aprobación del “AI Act” la primera reglamentación para el uso de sistemas de inteligencia artificial por medio de una escala de riesgos, que está subordinada al grado de impacto en los derechos y el bienestar de las personas
24 de julio 2023
Proyecto de Ley de inteligencia artificial de la Unión Europea: ¿por qué es importante conocer esta normativa?
El 14 de junio el Parlamento Europeo dio un importante paso para la aprobación del “AI Act” la primera reglamentación para el uso de sistemas de inteligencia artificial por medio de una escala de riesgos, que está subordinada al grado de impacto en los derechos y el bienestar de las personas. Se trata de una normativa pionera en el mundo que debemos conocer, ya que marcará la pauta para el resto de los países.
“Hicimos historia”. Con esta sencilla, pero poderosa frase celebró Brando Benifei, miembro del Parlamento Europeo, al aprobarse las enmiendas al Proyecto de Ley que regulará el desarrollo, comercialización y uso de la inteligencia artificial (IA) acorde al nivel de riesgo que representan para la población en la Unión Europea (UE).
En el proyecto Algoritmos Éticos, Responsables y Transparentes – iniciativa de la Universidad Adolfo Ibáñez y que cuenta con el apoyo de BID Lab – creemos que los motivos para celebrar son varios y vemos esta reglamentación como un ejemplo relevante de conocer, en especial su alcance en materia de seguridad para los ciudadanos y los deberes que los desarrolladores tecnológicos tendrán que cumplir si quieren proveer servicios en el viejo continente.
Estamos ante la primera normativa en el mundo en establecer un conjunto de obligaciones para proveedores y usuarios según el nivel de riesgo de los sistemas de IA. Es decir, mientras mayores sean los riesgos para los derechos fundamentales y el bienestar de las personas, mayores serán las obligaciones para los desarrolladores y los sistemas de IA.
De esta manera, se busca promover la creación, la innovación tecnológica y la adopción de sistemas fiables garantizando la protección de los ciudadanos en materia de transparencia, discriminación, salud, seguridad y respeto por sus derechos fundamentales.
Esto se realizará de acuerdo a cuatro niveles de riesgos.
1. Riesgo inaceptable: Prohíbe la comercialización y uso de IA por tratarse de una amenaza para la seguridad, vida o los derechos de las personas.
Por ejemplo:
- Manipulación de la conducta mediante técnicas subliminales.
- Explotación de grupos vulnerables.
- Sistemas de puntuación social.
- Sistemas de reconocimiento facial-biométrico en tiempo real con fines de aplicación de la ley.
2. Alto riesgo: En estos casos se evaluará la puesta en el mercado cuando la IA afecte negativamente la seguridad, la salud de las personas o sus derechos fundamentales. Por ejemplo:
- Productos que se encuentren sujetos a las leyes de armonización en materia de salud y seguridad de la UE (por ejemplo, juguetes, aviación, automóviles, productos sanitarios, ascensores). Estos se someterán a una evaluación de conformidad por terceros. La regulación tiene un anexo que indica las principales áreas de alto riesgo.
- Los sistemas de IA de alto riesgo distintos a los sujetos a las leyes de armonización deberán registrar sus modelos básicos en una base de datos de la UE, creada y gestionada por la Comisión que será de acceso libre y público.
3. Riesgo limitado: Los sistemas que impliquen un grado de interacción con el usuario deben cumplir requisitos mínimos de transparencia, que permitan a los usuarios tomar decisiones informadas. El usuario debe ser notificado cuando está interactuando con una IA y decidir si desea continuar usándolas.
Por ejemplo:
- Chatbots.
- Sistemas de reconocimiento de emociones.
- Sistemas que generen contenidos de imagen, audio o video.
4. Riesgo mínimo: Quedan libres de obligaciones legales en la UE los sistemas de IA que sólo impliquen un riesgo bajo para la población. No obstante, la ley supone la creación de códigos de conducta que ayuden a incentivar la incorporación voluntaria de los requisitos obligatorios para los sistemas de alto riesgo.
El texto legal será negociado con los 27 Estados miembros de la Unión Europea. Una vez aprobada, ésta se aplicará a cualquiera que diseñe, implemente y comercialice sistemas de IA en la UE, incluidas las empresas fuera de la comunión. Esto quiere decir que si alguna empresa o startup chilena desea desarrollar sus innovaciones en el bloque deberá cumplir con los requisitos de la legislación.
Desde que nació en el 2020 el proyecto de Algoritmos Éticos, hemos trabajado arduamente para promover la gestión ética de datos tanto en el sector público como en el mundo privado. Hoy estamos contentos y esperanzados con el significativo paso que dio la UE, porque marca la pauta para las grandes naciones y todo el globo para impulsar sistemas automatizados, semiautomatizados y de IA con estándares de seguridad, privacidad, transparencia y que prioricen el bienestar social.