La Autoridad Catalana de Protección de Datos publica una guía para la evaluación de impacto sobre los derechos fundamentales
18-02-2025 — AR/2025/021
Con esta guía, este organismo busca proporcionar un método para evaluar los riesgos que los sistemas de inteligencia artificial pueden suponer para los derechos fundamentales de las personas.
- Compartir
- Correo electrónico
La Autoridad Catalana de Protección de Datos ha elaborado una guía para evaluar los efectos de la inteligencia artificial (IA) en la protección de los datos personales (ver documento adjunto).
La dirige a los proveedores y a los responsables de sistemas de IA.
Resumimos lo esencial de esta guía.
Evaluación de impacto sobre los derechos fundamentales
La guía introduce un tipo de evaluación de impacto del tratamiento de datos sobre los derechos fundamentales, que caracteriza como:
- un procedimiento de análisis y mitigación de riesgos aplicable a los sistemas de IA;
- que pretende que estas tecnologías no perjudiquen los derechos fundamentales de las personas, y
- amplía el ámbito de la evaluación de impacto de protección de datos al incluir cuestiones sobre derechos:
- a la privacidad de los datos;
- a la no discriminación y a la equidad;
- a las libertades de expresión y de información;
- a la salud y seguridad, y
- a la dignidad humana.
Fases de esta evaluación de impacto
La Autoridad Catalana la estructura en tres fases:
- Fase 1: Planificación y determinación del alcance:
- Fijar el contexto del sistema de IA.
- Definir los derechos fundamentales a los que puede afectar.
- Fase 2: Recopilación de datos y análisis de riesgos:
- Identificar y cuantificar los riesgos mediante herramientas de evaluación.
- Fase 3: Gestión y mitigación de riesgos:
- Tomar medidas preventivas y correctoras para reducir el impacto negativo de la IA.
Aplicación práctica
La guía explica también casos concretos a los que aplica el modelo que propone:
- Caso 1:
- Plataforma de analítica avanzada del aprendizaje, en la que se analiza el uso de IA en el ámbito educativo para predecir el rendimiento académico y el riesgo de abandono escolar.
- Riesgos identificados: discriminación y sesgo algorítmico, vulneración de la privacidad y falta de transparencia.
- Caso 2:
- Herramienta para gestionar recursos humanos, en la que se examina un sistema de IA utilizado en procesos de selección y evaluación de empleados de una organización.
- Riesgos identificados: falta de equidad, opacidad en las decisiones automatizadas y tratamiento excesivo de datos personales.
- Caso 3:
- Sistema de IA para detectar el cáncer mediante el uso de imágenes médicas.
- Riesgos identificados: errores en los diagnósticos, protección de datos de salud y discriminación en el acceso a la tecnología.
- Caso 4:
- ATENEA, asistente de voz basado en IA para ayudar a personas mayores en tareas cotidianas.
- Riesgos identificados: dependencia tecnológica, privacidad y accesibilidad limitadas.
La Autoridad Catalana estima que la guía es un buen punto de partida para estos análisis, que los casos expuestos muestran que es posible centrar las evaluaciones de impacto en los derechos fundamentales y que no impone una carga adicional a las entidades que han de realizarlos.
Iniciativas relacionadas
Alertas Relacionadas
-
El reglamento de la Unión Europea sobre inteligencia artificial ha quedado promulgado
15-07-2024—AR/2024/062 -
El Parlamento Europeo y el Consejo de la UE llegan a un acuerdo sobre el reglamento de inteligencia artificial
11-12-2023—AR/2023/138 -
El Comité Europeo de Protección de Datos dictamina sobre el tratamiento de datos en la inteligencia artificial
23-12-2024—AR/2024/109