INNOVACIÓN| 20.12.2023
Adoptar una IA responsable desde la perspectiva de los seguros. Retos y oportunidades.
César Ortega Quintero
Expert Data Scientist
MAPFRE
En una era en la que la IA se ha convertido en una fuerza omnipresente, las dudas sobre sus implicaciones éticas, su repercusión en la economía y su potencial para aumentar las desigualdades han contribuido a generar una sensación de inquietud. No obstante, mientras navegamos por estas aguas desconocidas, también descubrimos las extraordinarias formas en que la IA puede mejorar nuestras vidas.
«Los seguros constituyen uno de los elementos facilitadores clave de nuestra nueva sociedad basada en la IA»; es la frase que no paro de recordar de mi primera reunión con el responsable global de innovación disruptiva cuando me incorporé a MAPFRE en verano de 2022. En aquel entonces, me asignaron un flujo de trabajo recién creado sobre la inteligencia artificial responsable (IAR).
Un año después, estoy a punto de llegar al final de un proceso de exploración en el que hemos realizado varias pruebas de concepto para comparar proveedores de IAR de primer nivel de Europa y Estados Unidos usando algunos de nuestros modelos básicos como conejillos de indias, en ámbitos como la suscripción, el valor de vida del cliente (CLTV, por su sigla en inglés) y la detección de fraudes, entre otros.
En este contexto, me he tomado mi tiempo para intentar conocer mejor la inteligencia artificial y responder a algunas de las preguntas más frecuentes sobre este tema: ¿En qué punto está la legislación? ¿Cuáles son los principales beneficios de la IA? ¿Cómo podemos garantizar la ética de los modelos? ¿Qué puede hacer el sector asegurador en este ámbito?
Pero lo primero es lo primero. ¿Qué es la inteligencia artificial? El debate sigue abierto, pero aquí va mi aportación al respecto:
La inteligencia artificial (IA) es un área multidisciplinaria de conocimiento que combina principios teóricos de materias como las matemáticas, la estadística, la física, la informática, las estructuras gráficas, etc. Su objetivo consiste en desarrollar máquinas físicas y virtuales capaces de imitar y mejorar los procesos cognitivos humanos para realizar todo tipo de tareas de forma «inteligente», desde la predicción y la optimización de decisiones hasta la generación de contenidos.
Partiendo de esta base, he analizado y aprendido sobre sus beneficios y riesgos. Sobre este último aspecto, en función de cada legislación, sector y enfoque teórico, se pueden identificar y clasificar los riesgos de forma diferente, pero los más comunes son los siete requisitos que sugieren las directrices europeas para lograr una IA fiable: intervención y supervisión humanas; solidez técnica y seguridad; privacidad y gestión de los datos; transparencia; diversidad, no discriminación y justicia; bienestar social y medioambiental, y responsabilidad.
No los voy a describir individualmente en este artículo (si lo hiciera, sería demasiado largo, lo garantizo). Iré al grano: cada vez resulta más imperioso encontrar soluciones prácticas que nos permitan controlar y mitigar los riesgos de la IA y los daños potenciales que estas pueden causar a las personas, las organizaciones y la sociedad en su conjunto.
Pero, ¿cómo podemos mitigar esos riesgos?
Lo primero que podemos hacer, que es vital, es fomentar una cultura que ponga en valor las consideraciones éticas sobre el desarrollo y el uso de la IA. Esto implica no solo llevar a cabo campañas de comunicación interna y formaciones sobre la IAR para todos los empleados, sino también integrar de verdad estos principios en los valores y cultura principales de una empresa.
Además, se requieren mucho tiempo y recursos para encontrar ese punto óptimo en el que todas las dimensiones del riesgo alcancen los límites deseables. Necesitamos más inversión e investigación para poder seguir evolucionando y creciendo de la mano de la IA.
Comparto algunos consejos sobre cómo afrontar los riesgos:
- Evalúa siempre tus métricas de rendimiento de forma contextual.
- Mejora la solidez de tu sistema incorporando técnicas como el aumento de datos, el entrenamiento adversarial o las redes de cápsulas.
- Evita de forma proactiva que los datos y los modelos de IA sufran brechas es una tarea vital que está estrechamente relacionada con la solidez de los modelos.
- Si te funciona un modelo más sencillo, cíñete a él y no cambies de táctica.
- Realiza un análisis de sesgo de los modelos para identificar y compensar cualquier divergencia en el rendimiento con respecto a las métricas de error de sesgo correspondientes entre los grupos protegidos y no protegidos.
Pero, si te soy sincero, esto solo es la punta del iceberg. Hay muchos más aspectos que tratar y en los que profundizar, que puedes leer en nuestro último artículo: FROM Insurance Perspective IMPORT Responsible AI Challenges and Opportunities
Puedes descargar y leer el artículo completo aquí. Espero que aproveches para aprender algo nuevo de mi experiencia.
ARTICULOS RELACIONADOS: