twitter
facebook
marca
home
vida
casa
sobre
Seguros 02/07/2018 | Buenafuente
El sesgo ético en los algoritmos de inteligencia artificial aplicados al seguro
El sesgo ético lo encontramos en la industria del seguro cuando en la modelización intervienen variables explicativas que están calificadas como discriminatorias. El problema real de los sesgos éticos es la...

mas leidas

El problema
Los algoritmos de inteligencia artificial se enfrentan en su modelización a los conocidos como sesgos de información. En el campo del desarrollo científico académico de la inteligencia artificial, están empeñados en resolver este problema que puede cuestionar la aplicabilidad de sus resultados. El sesgo ético lo encontramos en la industria del Seguro cuando en la modelización intervienen variables explicativas que están calificadas como discriminatorias, no solo  aquellas expresamente consideradas por la legislación (género, raza, religión…) sino también aquellas que cumplen una función similar a las anteriores, o incluso lo que se conoce como discriminación inconsciente, es decir, el analista no tiene voluntad consciente de discriminar, pero el uso de esta variable si es discriminatorio. 
 
Un estudio en los EEUU concluyó que, en la mayoría de los estados, "las primas de seguros de autos son impulsadas en gran medida por factores económicos que no están relacionados con la seguridad en la conducción", variables como el nivel educativo, ocupación, propiedad de vivienda, compra previa de seguro y estado civil. Una mayoría de estadounidenses cree que es injusto que las compañías de seguros utilicen características económicas -específicamente, nivel de educación, ocupación, no tener seguro por no tener automóvil, estado de propiedad de vivienda, estado civil y calificación crediticia- en el establecimiento primas del seguro de auto.
 
 
El problema real de los sesgos éticos es la ausencia de regulación explícita acerca de la transparencia y trazabilidad de los algoritmos de inteligencia artificial, pero es cierto que ya encontramos iniciativas, opiniones de expertos y de autoridades que comienzan a perfilar un marco de referencia que pueda servir de guía de actuación a las aseguradoras de buen hacer en la construcción de los modelos de pricing, fidelización, fraude….
 
La otra cara de la ética de los algoritmos es hacer que las personas que por su perfil de riesgo pasen a ser asegurables, aunque el modelo lo desaconseje. El seguro como industria necesita un acuerdo impulsado desde las autoridades regulatorias que garantice un umbral de riesgo/ precio mutualizado para que ningún solicitante de seguro quede fuera del alcance de la cobertura. 
 
Estas dos reflexiones nos permitirán corregir la calificada por Lemonade como supremacía estadística ya en manos de las máquinas y no de los departamentos técnicos de las entidades, cuyo origen se remonta a 1662, cuando John Graunt calculó las probabilidades de que los londinenses sobrevivieran a una edad determinada.
 
El entorno actual conocido con el acrónico en inglés VUCA (Volátil, incierto, complejo y aleatorio), el uso de las potencialidades de la analítica de datos avanzada permitirá, según datos de Accenture, un incremento del 20% en ingresos por primas y del 30% en la eficiencia.
 
A modo de ejemplo
La modelización del precio del seguro con los algoritmos avanzados ya han suscitado debate y controversia en los mercados donde así han sido aplicados.
 
Repasemos algunos casos publicados en la prensa internacional, que han llevado a Bill Wilson en febrero de 2018 a considerar el Big Data como la economía del vudú, alertando de la necesidad de que los modelos sean realmente predictivos, estables y rentables, elementos nucleares de la ciencia actuarial.
 
Wilson se refiere a la respuesta a un diario británico de una aseguradora que encontró que esa aseguradora podría cobrar a los usuarios más en su seguro de automóvil por usar una cuenta de correo electrónico de “Hotmail” en lugar de una de “Gmail”. La aseguradora sostiene que ciertos nombres de dominio están asociados con más accidentes quotros y que utilizan una variedad de información para producir precios competitivos.
 
Otro caso denunciado por la prensa es el de una aseguradora del Reino Unido que cobra a los conductores con nombres que no son ingleses tanto como £900 extra por su seguro.
 
El uso de algoritmos de Caja de Negra con el análisis de 600 variables puede llevar a este tipo implicaciones éticas.
 
El futuro marco regulatorio
 
Repasemos alguna de las iniciativas que tratan de actuar como “Estrella Polar” en la categorización de sesgos de los algoritmos.
 
En primer lugar, la responsable de EIOPA del Departamento de Protección al Consumidor, Katja Wuertz, en una jornada celebrada en IESE en Madrid el pasado 15 de marzo de 2018, alertó acerca del riesgo de exclusión debido al acceso a la información y su relación con el Big Data.
 
Prima la discriminación en precios por el uso de datos que el consumidor no controla. Se puede producir el hecho de que aquellos consumidores que más busquen en internet reciban ofertas mejores y aquellos que no busquen, se podría decir que miran menos por el precio, tengan propuestas de seguros con primas más elevadas.
 
Es fundamental el consentimiento en el uso de la información que se tiene de un asegurado para la protección y la intimidad de los datos.
 
En segundo lugar, Las Autoridades Europeas de Supervisión publicaron el pasado 15 de marzo de 2108 un informe que analiza los pros y los contras del Big Data, en el que concluye que los consumidores se pueden beneficiar de productos y servicios personalizados, de una mejor analítica para detectar el fraude o una mayor eficiencia de los procedimientos internos de la organización. Si bien las herramientas de Big Data pueden cometer errores, ocasionando que  los proveedores de servicios financieros tomen decisiones incorrectas en relación con el consumidor al llevar a cabo una segmentación de clientes que no se ajuste a la realidad.
 
En tercer lugar, el informe elaborado por European Group on Ethics que ha publicado en marzo de 2018 el documento “Statement on Artificial Intelligence , Robotics and Autonomus Systems”, enumera los principios éticos y prerrequisitos democráticos que debe contemplarse en los modelos de Inteligencia Artificial:
 
? Dignidad humana
? Autonomía, libertad humana
? Responsabilidad
? Justicia, equidad y responsabilidad
? Democracia
? Estado de derecho y responsabilidad
? Seguridad, integridad mental y corporal.
? Protección de datos y privacidad
? Sostenibilidad en las precondiciones de vida del planeta
 
Por último, hacemos referencia al nuevo concepto de “derecho a la explicación” establecido en el Reglamento Protección de agos de la Unión Europea.
 
El futuro
Se estima que en 2030, la determinación del precio del seguro, se realizará de manera generalizada con modelos de inteligencia artificial. Antes de que esto suceda, el sector asegurador necesita un marco formal regulatorio que elimine los sesgos éticos de los modelos, al margen de que los científicos logren técnicamente corregirlos.
 

Compartir facebooktwitterlikedin
sobresobre
DEJE SU COMENTARIO
Agregar Comentario
NOMBRE   
Foto
E-MAIL  
TITULO  
COMENTARIO  
CÓDIGO
 
marca
Copyright 2000-2012 Buenafuente.com - All rights reserved - Normas de confidencialidad y privacidad