Contacto

¿Es posible evitar discriminaciones / sesgos injustos asociados al uso de IA en la industria de aseguradora?

May 19, 2023

La industria de seguros funciona con datos. Los generación, captación y uso de estos datos impulsan decisiones, desde la suscripción hasta las reclamaciones de los seguros, determinando los precios, así como las estrategias de interacción con los clientes, el marketing y la cartera de productos. El crecimiento exponencial del volumen de datos, antes no disponibles para las aseguradoras, brinda la oportunidad de tomar decisiones más rápidas e informadas y de operar de manera mucho más eficiente, lo que conlleva a migrar nuestra atención al desafío sobre ¿cómo optimizar el uso potencial de esta información?

La respuesta natural ha sido la adopción de tecnología asociada a inteligencia artificial (“IA”) y Big Data, para explorar datos y recopilar información que antes no estaba disponible o no era posible obtener y que permite aprovechar eficiencias aportadas por su uso para mejorar o reemplazar los modelos existentes, es el uso de estas herramientas lo que ha aumentado significativamente la cadena de valor de los seguros, esto pro de buscar una ventaja competitiva donde el uso de estas tecnologías permite tomar decisiones más rápido y atender mejor a los clientes.

Sin embargo, no todo es perfecto. A medida que más empresas integran su uso, han surgido dudas sobre cómo garantizar que se utilicen éticamente estas herramientas de mejora de procesos. Existe un riesgo cada vez más conocido a medida que aumenta la adopción de la IA, que es el potencial de sesgo injusto. Central para entender dónde y cómo sesgo injusto puede ocurrir en los sistemas de IA es definir qué significa sesgo injusto y qué constituye equidad. Para el IA los efectos prácticos acorde a SOA Research Institute, en su estudio Avoiding Unfair Bias in Insurance Applications of AI Models  se define sesgo injusto como “resultados adversos inexplicables para las comunidades marginadas”.

Este es un problema común para las compañías de seguros de todo el mundo, las cuales en conjunto con los organismos gubernamentales y de supervisión a nivel internacional, se encuentran en la búsqueda de un marco regulatorio, que hasta hace poco se ha centrado principalmente en la privacidad de los datos y la protección de la información de identificación personal, sobre todo con la introducción del Reglamento General de Protección de Datos (RGPD) de la UE en 2018.

Entonces ¿Cómo pueden las empresas y los clientes estar seguros de que los datos y los algoritmos utilizados para tomar decisiones críticas no están sesgados o no son confiables?

Acorde a SOA Research Institute al momento de evaluar la equidad del modelo y la identificación de sus posibles sesgos, se debe tomar en consideración la capacidad de las organizaciones para comprender qué impulsa la toma de decisiones en sus modelos de IA. Esta comprensión podría relacionarse con el diseño de algoritmos, tipos de elementos de datos, la interpretación del usuario final de los resultados del sistema, entre otras consideraciones. Un ejemplo de donde el sesgo injusto puede surgir debido a la falta de comprensión de lo que impulsa la toma de decisiones se puede ver en el modelado de riesgos, una técnica

utilizado en la evaluación de riesgos para identificar los factores críticos que impulsan el riesgo, la relación entre esos factores y la probabilidad de que ocurra un resultado.

Por ejemplo, Microsegmentación: La cual es dividir puntos de datos en grupos según características comunes, lo que permite la fijación de precios a un nivel de grupo más pequeño en función de los atributos que contribuyen al riesgo.

Acorde a SOA, hay dos formas en que la microsegmentación puede introducir sesgos. Primero, grandes cantidades de datos y riesgo multivariado las puntuaciones pueden tener poca aplicabilidad, lo que dificulta determinar qué atributos impulsan la evaluación. No entender lo que impulsa la toma de decisiones del modelo puede dar lugar involuntariamente a sesgos que pueden ser injustos o discriminatorio. En segundo lugar, las variables dentro del modelo de IA pueden estar altamente correlacionadas con un rasgo protegido. Por ejemplo, un elemento de datos puede estar asociado con una mayor exposición a pérdidas para algunas coberturas de seguro. Además, eso elemento puede estar altamente correlacionado con un rasgo protegido. Si bien esta correlación no siempre conduce a un sesgo injusto y depende de la utilidad del elemento de datos en sí mismo, modelo de toma de decisiones que se basa en un elemento de datos que se correlaciona altamente con un rasgo protegido introduce un potencial de sesgo injusto.

Otra posibilidad para considerar sobre posibles sesgos en modelos de riesgos es evaluar cómo el modelo de IA determinó o valoró los factores que impulsan el riesgo, es aquí donde puede surgir un sesgo de conjuntos de datos que son demasiado simples, obsoletos o incluyen atributos no relacionados que en última instancia conducen a error en el análisis.

Entonces, ¿cómo aseguradoras qué podemos hacer para evitar caer en estos sesgos discriminatorios?

Aquí es donde los principios de participación humana, monitoreo y transparencia se vuelven extremadamente importantes y donde los lineamientos internos de las empresas pueden marcar una gran diferencia. El Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial órgano asesor de la Comisión Europea generó un marco de observaciones y recomendaciones a considerar al momento de implementar IA, entre otros, determinó que para el uso ético de la IA se deben respetar siete requisitos[1] para una IA responsable:

1. Agencia humana y supervisión.

2. Robustez técnica y seguridad.

3. Privacidad y gobierno de datos.

4. Transparencia.

5. Diversidad, no discriminación y equidad.

6. Bienestar social y ambiental.

7. Responsabilidad.

La creación de un marco de ético puede contribuir en gran medida a mitigar los riesgos de sesgo injusto en todas las etapas del uso y desarrollo de la IA. Estamos conscientes que las compañías de seguros confían cada vez más en la IA, y esta confianza seguirá creciendo, de la misma forma que de la mano con su uso aumentará el potencial de discriminación inadvertida. Por lo tanto, la importancia de implementar un conjunto sólido de procesos y controles es imperativa para la industria.


[1] KPMG – Inteligencia artificial ética: la industria de seguros holandesa lo convierte en un mandato. https://kpmg.com/xx/en/home/insights/2021/03/ethical-ai-in-insurance-making-it-a-mandate.html

Comparte:

Otros Artículos

Suscribete a nuestro newsletter