Efectos de la ley de inteligencia artificial en las entidades financieras
Publicado en Funds Society el 22-05-2024
22-05-2024 — CM/2024/061
El Parlamento Europeo aprobó, el 13-3-2024, un reglamento sobre el uso de sistemas de inteligencia artificial en la Unión Europea (UE). Aunque aún está pendiente de promulgación, ya se conoce como “ley de inteligencia artificial”. Como tal reglamento, no necesita trasposición a los derechos nacionales de los Estados miembros y se aplicará de forma directa en toda la UE, de forma escalonada.
Las entidades financieras, en la medida en que usen las tecnologías de inteligencia artificial, estarán afectadas por las obligaciones de esta norma. En la mayoría de los casos, encajan en la figura de “responsable del despliegue”, es decir, utilizan sistemas con componentes de inteligencia artificial bajo su propia autoridad. En otros casos, pueden ser calificadas de “proveedores” si, por ejemplo, ponen su nombre o marca comercial a un sistema de inteligencia artificial calificado de alto riesgo o si lo modifican sustancialmente.
La ley de inteligencia artificial parte de un enfoque basado en el riesgo de cada sistema que encaje en su ámbito, de manera que enfatiza las obligaciones y controles sobre los sistemas con un mayor riesgo de vulnerar los derechos fundamentales. Con este enfoque de riesgo, estos sistemas se clasifican en:
- Sistemas prohibidos expresamente, como los que se sirven de técnicas subliminales o deliberadamente manipuladoras o engañosas con el fin o efecto de alterar sustancialmente el comportamiento de una persona, mermando su capacidad para tomar una decisión informada, de un modo que pueda provocar perjuicio a esa persona.
- Sistemas de alto riesgo, como los utilizados para evaluar la solvencia de personas físicas o establecer su calificación crediticia (salvo los dedicados a detectar fraudes financieros) o para valorar riesgos y fijar precios en seguros de vida y salud.
- Sistemas de riesgo limitado, como los de atención continuada al cliente durante 24 horas con asistentes virtuales (chat-bots) o de asesoramiento financiero personalizado (robo-advisors).
- Sistemas de riesgo mínimo o nulo, por ejemplo, los sistemas destinados a la clasificación automática de documentación o a la mejora del resultado de una actividad humana previamente realizada, entre otros.
El primer ejercicio para las entidades financieras será inventariar todos los sistemas de inteligencia artificial que puedan estar utilizando, clasificarlos e identificar las obligaciones que han de cumplir, derivadas de esa clasificación.
Las obligaciones normativas sobre los sistemas de riesgo limitado para los responsables del despliegue se centran en requisitos de transparencia cuando estos sistemas estén destinados a interactuar con personas físicas. Para los clasificados como de alto riesgo son mucho más complejas.
La mayoría de las entidades de crédito utilizan sistemas de evaluación de solvencia de sus clientes o para determinar su calificación crediticia; por tanto, son sistemas de riesgo alto. Resumimos a continuación las obligaciones que han de cumplir los responsables del despliegue de sistemas de inteligencia artificial de riesgo alto:
|
1. Identificación del sistema
|
2. Creación de un modelo de gobierno de la inteligencia artificial
|
|
3. Creación de políticas de inteligencia artificial
|
4. Transparencia
|
|
5. Evaluación de impacto en los derechos fundamentales
|
6. Supervisión y auditoría
|
|
7. Sello europeo
|
8. Notificación de incidentes graves
|
|
9. Implantación del derecho de explicación
|
10. Aurorregulación
|
|
11. Ciberseguridad
|
12. Conservación de registros
|
|
13. Involucración de la representación de los trabajadores
|
14. Formación en inteligencia artificial
|
Merece resaltarse el grado de similitud entre las obligaciones del reglamento general de protección de datos con el reglamento de inteligencia artificial, lo que puede hacer mucho más eficiente el proceso de implantación de las obligaciones descritas, así como de profesionales expertos, al poder contar, como punto de partida, con los profesionales y la metodología de los proyectos de protección de datos personales.
Últimas noticias (ver todas)
Europa necesita un nuevo «whatever it takes» para la integración financiera
Jorge Ferrer, socio26-03-2026
Jorge Ferrer, socio cofundador de finReg360, ha participado en el Foro Futuro, observatorio de tendencias económicas, junto a Juan del Alcázar, responsable de Public Policy y Advocacy en Banco Santander, y Judith Arnal, investigadora de Elcano, Fedea y CEPS.
En El País el 26-03-2026
Bruselas prohibirá a los bancos vender productos financieros con comisiones injustificadas
Maite Álvarez, directora24-03-2026
Maite Álvarez, directora de Regulación Financiera de finReg360, explica que las entidades financieras “tendrán que hacer una comparación con productos similares, construida sobre criterios objetivos, incluyendo riesgo, horizonte temporal, estrategia, mercado objetivo, sostenibilidad y tipo de gestión”.
En Cinco Días el 24-03-2026
Parlamento y Consejo alcanzan un acuerdo en trílogos sobre la RIS y redefinen incentivos, asesoramiento y value for money
Maite Álvarez, directora23-03-2026
Según Maite Álvarez, directora de Regulación Financiera de finReg360, el acuerdo “introduce ajustes relevantes sobre el marco actual de MiFID II e IDD, especialmente en materia de incentivos, value for money y mejor interés del inversor minorista”, consolidando así el giro hacia un modelo más exigente en términos de protección del cliente.
En FundsPeople el 23-03-2026