Miembros del Parlamento Europeo llegan a un acuerdo provisional sobre el primer conjunto de reglas sobre inteligencia artificial

28-04-2023 — AR/2023/047

Es este un primer acuerdo político provisional sobre el futuro reglamento sobre inteligencia artificial, que será una norma pionera para regular el uso de esta tecnología.

Como informa Euroactiv.com, el 27-4-20923, los parlamentarios europeos han llegado a un acuerdo político provisional sobre el reglamento de inteligencia artificial (conocido como la AI Act).

Esta norma, pionera en el mundo, pretende evitar los riesgos que puede provocar la inteligencia artificial (IA) regulando su uso.

El texto está sujeto todavía a ajustes, antes de la votación del comité, prevista para el 11-5-2023 y se espera que el pleno del Parlamento la vote a mediados de junio.

Los aspectos más debatidos para llegar a este acuerdo han sido:

Inteligencia artificial sin finalidad específica

Respecto a los sistemas de IA sin una finalidad específica (que incluye modelos generativos como ChatGPT), los parlamentarios europeos han decidido mantener las obligaciones estrictas a los modelos de base mediante la subcategoría de «IA de finalidad general».

Conforme al acuerdo inicial, los modelos de IA generativa han de diseñarse y desarrollarse cumpliendo las leyes y los derechos fundamentales de la UE, incluida la libertad de expresión.

Prácticas prohibidas de inteligencia artificial

Entre las aplicaciones prohibidas de la IA, que son las que provocan un riesgo inaceptable, debatieron sobre el uso de estas tecnologías en los siguientes supuestos:

  1. Las herramientas de vigilancia general de comunicaciones interpersonales, que se retiró finalmente.
  2. El software de identificación biométrica: la prohibición inicial de su uso en tiempo real se ha ampliado a su uso posterior, que queda limitado a la investigación de delitos graves y con autorización judicial previa.
  3. Las herramientas de manipulación intencionada: la discusión se centró en la palabra ‹intencionada›, por la dificultad de acreditar la intención. Finalmente se ha mantenido la palabra para evitar una extensión excesiva de la limitación.

Clasificación de alto riesgo

El acuerdo flexibiliza la lista de modelos de IA calificadas como de alto riesgo, mediante la exigencia de que los supuestos incluidos han de representar un riesgo significativo para la salud, la seguridad o los derechos fundamentales para entrar en la consideración mencionada.

Los sistemas de IA de alto riesgo deben ser sostenibles y cumplir con las normas medioambientales europeas.

Detección de sesgos

El acuerdo incluye salvaguardias adicionales para el procesamiento de datos sensibles en los modelos de IA de alto riesgo.

Estos datos solo pueden utilizarse en los modelos de IA en un entorno controlado y no pueden transmitirse a terceros.

Además, los proveedores deben documentar la finalidad para la que se utilizaron esos datos y eliminarlos después de la evaluación del sesgo.

Principios generales

La propuesta de principios generales para los modelos de IA incluye:

  • la supervisión humana,
  • la solidez técnica,
  • la seguridad,
  • la privacidad,
  • la gobernanza de datos,
  • la transparencia,
  • el bienestar social y medioambiental,
  • la diversidad,
  • la no discriminación, y
  • la equidad.