Inteligencia artificial con ética: la próxima gran transformación del seguro

Publicado en El Confidencial el 08-11-2025

08-11-2025 — CM/2025/171

La irrupción de la inteligencia artificial (IA) en el sector asegurador ya no es una promesa, sino una realidad que redefine modelos de negocio, procesos operativos y marcos regulatorios. Desde la entrada en vigor de la Ley de Inteligencia Artificial o Artificial Intelligence Act [Reglamento (UE) 2024/1689] en la Unión Europea (UE) el 1 de agosto de 2024, las compañías aseguradoras se están adaptando no solo a un entorno tecnológico en rápida evolución, sino también a un marco normativo exigente y transversal que busca equilibrar innovación y protección.

Durante los últimos años, la IA se ha ido consolidando como una herramienta importante en prácticamente todas las fases de la actividad aseguradora. Su uso se extiende desde la tarificación y la evaluación de riesgos hasta la detección de fraude, la automatización de siniestros y la atención personalizada al cliente mediante sistemas conversacionales o motores de decisión que han permitido a las aseguradoras ganar eficiencia.

Sin embargo, la IA también genera riesgos que no pueden subestimarse, como ciertos sesgos en los algoritmos, posibles discriminaciones indirectas y la amenaza de que determinados colectivos se vuelvan inasegurables como consecuencia de la hipersensibilización de los modelos (es decir, que trata bien los datos de los modelos, pero no tanto los datos nuevos). Es necesario, por tanto, que entidades y supervisores logren un equilibrio entre aprovechar las ventajas tecnológicas y preservar la equidad y la transparencia.

La ley de IA introduce un enfoque regulatorio basado en el riesgo, que clasifica estos sistemas en cuatro niveles: prohibidos, de alto riesgo, de riesgo limitado y de riesgo mínimo.

En el ámbito asegurador, la norma considera de alto riesgo los sistemas que intervienen en procesos críticos, como la tarificación y la evaluación de riesgos en seguros de vida o salud. Esta categoría implica obligaciones reforzadas de documentación, trazabilidad, auditoría, supervisión humana y control de calidad de los datos.


En definitiva, el futuro de la IA en los seguros dependerá de la capacidad del sector para conjugar innovación y cumplimiento


Pero este reglamento no actúa de forma aislada, pues convive con normativas ya consolidadas en el sector, como las directivas de Solvencia II o de distribución de seguros, o el Reglamento de Resiliencia Operativa Digital (DORA), que componen un ecosistema normativo coherente.

En su reciente “Opinión sobre gobernanza y gestión de riesgos de la inteligencia artificial”, del 6-8-2025, la Autoridad Europea de Seguros y Planes de Jubilación (AESPJ o EIOPA en siglas inglesas) ha aclarado cómo deben aplicarse los principios del buen gobierno a los sistemas de IA sin necesidad de crear nuevas obligaciones. La autoridad europea insiste en la importancia de una gobernanza sólida del dato, que asegure que los algoritmos se alimenten de información representativa y sin sesgos, y que se mantenga la capacidad de auditar los modelos de decisión. También subraya la necesidad de mantener la transparencia para que los asegurados entiendan, o al menos accedan a una explicación razonable sobre las decisiones automatizadas que los afectan.

La EIOPA recalca, además, que toda automatización crítica debe contar con supervisión humana cualificada y que la gestión de riesgos debe ser proporcional a la magnitud y criticidad del sistema utilizado. En este sentido, la IA se integra dentro de los requisitos ya vigentes de continuidad de negocio y resiliencia operativa, de modo que los modelos deben ser testados, monitorizados y revisados de manera continua. Esta interpretación es coherente con la idea de una “IA ética y confiable”, como defiende la UE.

Para las aseguradoras, aterrizar estas expectativas en la práctica supone, en primer lugar, identificar qué sistemas caen dentro del ámbito de “alto riesgo”, lo que requiere inventariar y clasificar los usos de la IA en la organización. En segundo lugar, es preciso adaptar la estructura de gobierno interno: crear comités de IA, definir roles de supervisión, implantar procesos de validación y auditoría y formar equipos multidisciplinares capaces de comprender tanto los aspectos técnicos como las implicaciones regulatorias y éticas.

A lo anterior se suma un dilema estratégico: la innovación tecnológica puede mejorar la eficiencia y la personalización, pero también acentuar desigualdades si no se gestiona con criterios de equidad y transparencia. El riesgo de que las aseguradoras rechacen ciertos perfiles por indicaciones genéricas de estos sistemas no es solo poco ético o antisocial, sino que comporta grandes riesgos reputacionales y regulatorios. En este sentido, los reguladores han insistido en la necesidad de que las decisiones automatizadas mantengan coherencia con los principios de equidad y accesibilidad financieras.

Pese a estos riesgos, la IA representa también una oportunidad sin precedentes para las entidades que decidan un enfoque proactivo y responsable. Una gobernanza sólida de la inteligencia artificial puede convertirse en una ventaja competitiva al combinar mejoras en la eficiencia operativa, refuerzo de la confianza del cliente, reducción del fraude y el diseño de productos más ajustados a las necesidades reales. En un mercado que avanza hacia la “IA confiable”, las aseguradoras que integren la ética y la transparencia en el corazón de su modelo de negocio no solo cumplirán con la norma, sino que reforzarán su posición.

En definitiva, el futuro de la IA en los seguros dependerá de la capacidad del sector para conjugar innovación y cumplimiento. Ya no se trata de elegir entre regulaciones o crecimiento, sino de entender que el cumplimiento inteligente es una forma de innovación responsable. Las compañías que inviertan desde hoy en identificar sus sistemas de IA, evaluar sus riesgos, formar a su personal y adaptar sus políticas estarán mejor preparadas para los nuevos escenarios.

 

Últimas noticias (ver todas)

Flanks y finReg360 lanzan EDX

finReg360

20-01-2026

La firma europea de wealthtech, Flanks y la boutique finReg360 han presentado EDX (European Data Exchange), un nuevo protocolo que aspira a convertirse en el estándar de referencia para el intercambio de datos de posiciones financieras entre bancos custodios, gestoras de patrimonio y firmas de asesoramiento en Europa.

En Radio Intereconomía el 20-01-2026

Flanks And finReg360 Launch EDX, Europe’s First Standardised Financial Data Exchange Protocol

Jorge Ferrer, socio

19-01-2026

«At finReg360, we provide the strategic vision and regulatory framework necessary to protect client privacy and ensure institutions meet their fiduciary duties, while fostering the development of innovative new services», adds Jorge Ferrer, cofounder at finReg360.

En Financial IT el 19-01-2026

Flanks And FinReg360 Launch EDX, Europe’s New Standard For Financial Data Exchange

finReg360

19-01-2026

Flanks, a leading European WealthTech company transforming the industry through automation and data-driven strategic insights, has partnered with finReg360, Spain’s top regulatory advisory and consultancy firm for the financial sector, to launch EDX (European Data Exchange).

En Startup Rise el 19-01-2026