La Unión Europea, pionera en la regulación de la inteligencia artificial

26-04-2021 — AR/2021/055

Las autoridades de la Unión Europea quieren regular los principales riesgos derivados de la inteligencia artificial con un reglamento que colocará a la Unión Europea en una posición de liderazgo mundial.

La Comisión Europea (CE) ha publicado, el 21-4-2021, una propuesta de reglamento1 para regular el uso de la inteligencia artificial (IA).

La propuesta se basa en la distinción de cuatro niveles de riesgo asociados al uso de la IA y la identificación de medidas de control y seguridad que deben aplicarse a cada uno de ellos.

Además, se regulan algunas cuestiones de modo específico.

Se detallan a continuación estos aspectos con brevedad:

Niveles de riesgo

Riesgo inaceptable

Es el que afecta a las prácticas calificadas como amenaza para la seguridad, el modo de vida y los derechos de las personas, como son:

  • las que persiguen la manipulación del comportamiento humano,
  • las que incitan a la violencia y, especialmente, contra grupos de personas vulnerables,
  • la calificación automática de individuos por su comportamiento social o características personales con propósitos discriminatorios, o
  • la identificación biométrica en espacios públicos para controlar el cumplimiento de las normas.

Riesgo alto 

Se califica así a las prácticas que atentan contra la salud y la seguridad de las personas, o los derechos fundamentales, como son la aplicación de IA a:

  • los sistemas de categorización e identificación biométrica de las personas,
  • la gestión de infraestructuras críticas,
  • la educación,
  • los recursos humanos,
  • el acceso a los servicios públicos y los privados considerados esenciales,
  • el control del cumplimiento  de las normas,
  • la gestión migratoria, del asilo y de las fronteras, y
  • la administración de justicia y de los procesos democráticos.

En estos sistemas, el uso de la IA está condicionado a cumplir una serie de requisitos, entre los que se incluyen el análisis y evaluación de riesgos, la obligación de transparencia, la trazabilidad de los resultados, la supervisión humana, el control constante de la información y las conclusiones, y el alto estándar de robustez y ciberseguridad del sistema.

Riesgo limitado 

En esta categoría se incluyen los sistemas de IA que sirven para interactuar con las personas. Son sistemas utilizados de forma muy generalizada, como:

  • los chatbots, o
  • los sistemas de conducción automática.

Estos sistemas deben cumplir unas medidas de seguridad mínimas y garantizar la transparencia.

Riesgo mínimo

Se engloba en este el resto de los usos de la IA relacionados, por ejemplo, con videojuegos o aplicaciones de imagen.

Estos sistemas no implican riesgos, por lo que no se requieren medidas al respecto ni se condiciona su uso.

Regulación singular

Sistemas de reconocimiento facial

La propuesta de reglamento regula singularmente el uso de la IA en los sistemas de reconocimiento facial.

A este respecto, prohíbe el uso de estos sistemas en áreas públicas como medida de control del cumplimiento de las leyes, pero recoge excepciones, como son la lucha contra el terrorismo o persecución de sospechosos de delitos graves.

Garantías de los sandboxes

La propuesta recoge también garantías respecto a los sistemas de sandbox, que estarán supervisados por las autoridades de control de protección de datos.

Constitución del Comité Europeo de Inteligencia Artificial

Este comité sería responsable de contribuir a:

  • la cooperación entre las autoridades nacionales de supervisión (ANS) en esta materia,
  • la orientación y consejo a la Comisión Europea y las ANS sobre los problemas relacionados con la IA que vayan apareciendo en el mercado interior, y
  • la colaboración con las ANS en la aplicación del reglamento.

1 Comisión Europea: «Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS» (COM/2021/206), 21-4-2021.