Inteligencia artificial con ética: la próxima gran transformación del seguro
Publicado en El Confidencial el 08-11-2025
08-11-2025 — CM/2025/171
La irrupción de la inteligencia artificial (IA) en el sector asegurador ya no es una promesa, sino una realidad que redefine modelos de negocio, procesos operativos y marcos regulatorios. Desde la entrada en vigor de la Ley de Inteligencia Artificial o Artificial Intelligence Act [Reglamento (UE) 2024/1689] en la Unión Europea (UE) el 1 de agosto de 2024, las compañías aseguradoras se están adaptando no solo a un entorno tecnológico en rápida evolución, sino también a un marco normativo exigente y transversal que busca equilibrar innovación y protección.
Durante los últimos años, la IA se ha ido consolidando como una herramienta importante en prácticamente todas las fases de la actividad aseguradora. Su uso se extiende desde la tarificación y la evaluación de riesgos hasta la detección de fraude, la automatización de siniestros y la atención personalizada al cliente mediante sistemas conversacionales o motores de decisión que han permitido a las aseguradoras ganar eficiencia.
Sin embargo, la IA también genera riesgos que no pueden subestimarse, como ciertos sesgos en los algoritmos, posibles discriminaciones indirectas y la amenaza de que determinados colectivos se vuelvan inasegurables como consecuencia de la hipersensibilización de los modelos (es decir, que trata bien los datos de los modelos, pero no tanto los datos nuevos). Es necesario, por tanto, que entidades y supervisores logren un equilibrio entre aprovechar las ventajas tecnológicas y preservar la equidad y la transparencia.
La ley de IA introduce un enfoque regulatorio basado en el riesgo, que clasifica estos sistemas en cuatro niveles: prohibidos, de alto riesgo, de riesgo limitado y de riesgo mínimo.
En el ámbito asegurador, la norma considera de alto riesgo los sistemas que intervienen en procesos críticos, como la tarificación y la evaluación de riesgos en seguros de vida o salud. Esta categoría implica obligaciones reforzadas de documentación, trazabilidad, auditoría, supervisión humana y control de calidad de los datos.
En definitiva, el futuro de la IA en los seguros dependerá de la capacidad del sector para conjugar innovación y cumplimiento
Pero este reglamento no actúa de forma aislada, pues convive con normativas ya consolidadas en el sector, como las directivas de Solvencia II o de distribución de seguros, o el Reglamento de Resiliencia Operativa Digital (DORA), que componen un ecosistema normativo coherente.
En su reciente “Opinión sobre gobernanza y gestión de riesgos de la inteligencia artificial”, del 6-8-2025, la Autoridad Europea de Seguros y Planes de Jubilación (AESPJ o EIOPA en siglas inglesas) ha aclarado cómo deben aplicarse los principios del buen gobierno a los sistemas de IA sin necesidad de crear nuevas obligaciones. La autoridad europea insiste en la importancia de una gobernanza sólida del dato, que asegure que los algoritmos se alimenten de información representativa y sin sesgos, y que se mantenga la capacidad de auditar los modelos de decisión. También subraya la necesidad de mantener la transparencia para que los asegurados entiendan, o al menos accedan a una explicación razonable sobre las decisiones automatizadas que los afectan.
La EIOPA recalca, además, que toda automatización crítica debe contar con supervisión humana cualificada y que la gestión de riesgos debe ser proporcional a la magnitud y criticidad del sistema utilizado. En este sentido, la IA se integra dentro de los requisitos ya vigentes de continuidad de negocio y resiliencia operativa, de modo que los modelos deben ser testados, monitorizados y revisados de manera continua. Esta interpretación es coherente con la idea de una “IA ética y confiable”, como defiende la UE.
Para las aseguradoras, aterrizar estas expectativas en la práctica supone, en primer lugar, identificar qué sistemas caen dentro del ámbito de “alto riesgo”, lo que requiere inventariar y clasificar los usos de la IA en la organización. En segundo lugar, es preciso adaptar la estructura de gobierno interno: crear comités de IA, definir roles de supervisión, implantar procesos de validación y auditoría y formar equipos multidisciplinares capaces de comprender tanto los aspectos técnicos como las implicaciones regulatorias y éticas.
A lo anterior se suma un dilema estratégico: la innovación tecnológica puede mejorar la eficiencia y la personalización, pero también acentuar desigualdades si no se gestiona con criterios de equidad y transparencia. El riesgo de que las aseguradoras rechacen ciertos perfiles por indicaciones genéricas de estos sistemas no es solo poco ético o antisocial, sino que comporta grandes riesgos reputacionales y regulatorios. En este sentido, los reguladores han insistido en la necesidad de que las decisiones automatizadas mantengan coherencia con los principios de equidad y accesibilidad financieras.
Pese a estos riesgos, la IA representa también una oportunidad sin precedentes para las entidades que decidan un enfoque proactivo y responsable. Una gobernanza sólida de la inteligencia artificial puede convertirse en una ventaja competitiva al combinar mejoras en la eficiencia operativa, refuerzo de la confianza del cliente, reducción del fraude y el diseño de productos más ajustados a las necesidades reales. En un mercado que avanza hacia la “IA confiable”, las aseguradoras que integren la ética y la transparencia en el corazón de su modelo de negocio no solo cumplirán con la norma, sino que reforzarán su posición.
En definitiva, el futuro de la IA en los seguros dependerá de la capacidad del sector para conjugar innovación y cumplimiento. Ya no se trata de elegir entre regulaciones o crecimiento, sino de entender que el cumplimiento inteligente es una forma de innovación responsable. Las compañías que inviertan desde hoy en identificar sus sistemas de IA, evaluar sus riesgos, formar a su personal y adaptar sus políticas estarán mejor preparadas para los nuevos escenarios.
Últimas noticias (ver todas)
Economía relanzará el producto que permite ahorrar 5.000 euros al año y no tributar por sus ganancias
Jorge Ferrer, socio25-02-2026
Jorge Ferrer, socio cofundador de finReg360, opina en esta noticia en la que se explica que el Gobierno quiere reactivar los SIALP, un producto financiero de ahorro creado en 2014 por Cristóbal Montoro, entonces ministro de Hacienda, para canalizar recursos hacia proyectos empresariales europeos bajo la etiqueta Finance Europe.
En Cinco Días el 25-02-2026
Tecnología, regulación y eficiencia: la triple transformación del asesoramiento financiero
Jorge Ferrer, socioFernando Alonso, socio
24-02-2026
Este análisis regulatorio lo han abordado, por finReg360, Jorge Ferrer y Fernando Alonso, socios de esta firma. Ambos han explicado que el RIS modifica de forma transversal la normativa de distribución y de producto en la Unión Europea, y afecta tanto a instrumentos financieros como a productos de seguros con componentes de inversión.
En Funds Society el 24-02-2026
finReg360 nombra a cinco nuevos directores
finReg36019-02-2026
La boutique especializada en regulación financiera finReg360 continúa avanzando en su estrategia de consolidación con la promoción o incorporación de cinco nuevos directores, una decisión orientada a potenciar el talento interno y fortalecer áreas importantes del negocio.
En Intereconomía el 19-02-2026