INNOVACIÓN| 28.06.2023
Las aseguradoras, una pieza clave para mitigar los riesgos de la Inteligencia Artificial
En un contexto en el que la Inteligencia Artificial está en completo auge e impregna gran parte de la sociedad y de los modelos de negocio, desde MAPFRE se ha realizado una investigación con el objetivo de entender bien los riesgos de la tecnología y buscar fórmulas que ayuden a evaluarlos, monitorizarlos y mitigarlos para ser capaces de desplegar IA responsable (RAI).
El grueso del tejido empresarial mundial emplea la Inteligencia Artificial (IA) para distintos ámbitos en su día a día, desde los procesos de negocio hasta la creación de soluciones o productos para sus clientes, pasando por un amplio abanico de opciones. Es una tecnología que conlleva grandes beneficios en materia de innovación, productividad e, incluso, rentabilidad, pero también es necesario ser conscientes de sus riesgos (sesgos, ética, rendimiento, fiabilidad de la información, propiedad intelectual, etc.), unos riesgos que deben gestionarse de manera adecuada para poder aplicarla de forma segura, confiable y, en definitiva, sostenible.
La mayoría de las empresas están aprendiendo a utilizar esta tecnología, aplicándola a casos de uso en entornos de prueba o con impactos muy controlados. Por esta razón se tiene cierta percepción de control sobre los riesgos asociados a la IA en el entorno empresarial, pero el consenso general en que son necesarios marcos de trabajo, herramientas, directrices y regulación para ayudar en este despliegue.
El lanzamiento de herramientas de Inteligencia Artificial generativa, accesibles a todos los ciudadanos, y con una adopción sin precedentes en tiempo récord, ha contribuido a aumentar el uso de esta tecnología drásticamente entre todo tipo de perfiles, añadiendo complejidad al debate sobre los riesgos de la IA.
Los organismos reguladores están centrando sus esfuerzos en habilitar normativas y legislación que protejan a los individuos y a la sociedad ante posibles usos inadecuados de esta tecnología, pero la incertidumbre – sobre todo en lo que se refiere a la asignación de responsabilidades – sigue siendo alta.
A medida que los casos de uso se vayan escalando en las empresas y la regulación se esclarezca, la concienciación sobre una gestión adecuada de los riesgos de la IA aumentará y, con ella, lo hará la demanda de los servicios asociados a la correcta gestión de esos riesgos. Las aseguradoras pueden actuar como catalizador en ese proceso y ayudar a sus clientes en el despliegue responsable y sostenible de la Inteligencia Artificial.
MAPFRE analiza los riesgos de la IA
En este contexto, MAPFRE ha realizado una investigación con el objetivo de entender bien dichos riesgos, evaluarlos, monitorizarlos y mitigarlos para ser capaces de desplegar la IA de manera responsable, publicando un informe exhaustivo con todas las conclusiones.
Hay tres tipos de riesgos e impactos derivados de la IA, con impacto a nivel personal, social y corporativo:
- Riesgo operativo, ligado a la robustez, seguridad y rendimiento de la tecnología.
- Riesgo ético, que refiere a la justicia, transparencia y explicabilidad de soluciones y modelos.
- Riesgo regulatorio, que recoge todo lo referente al cumplimiento regulatorio y a la responsabilidad legal.
Controlar estas áreas, y trabajar para mitigarlos, se antoja fundamental, especialmente en un momento en que la IA generativa ha alcanzado una adopción sin precedentes, intensificando la preocupación por su impacto ético y legal: se espera que el mercado de la IA generativa tenga un tamaño estimado de 121 millones de dólares para 2027, con un CAGR del 68% (2022-2027).
Qué es la IA responsable y por qué es tan importante
Precisamente, el concepto de Inteligencia Artificial responsable (RAI, por sus siglas en inglés) surge para garantizar el buen uso de la IA y minimizar esos riesgos.
La Inteligencia Artificial responsable se refiere a la gestión del ciclo de vida de los modelos de IA siguiendo los principios, procesos y políticas necesarios para garantizar que la tecnología se desarrolla y opera siempre buscando un impacto positivo y protegiendo a los individuos y la sociedad. Esto implica conocer y gestionar los riesgos asociados a los modelos y generar los mecanismos que permitan controlarlos y mitigarlos desde la triple perspectiva antes nombrada.
Aunque aún es un concepto incipiente, algunos sectores destacan por su madurez en la adopción. El sector de la Tecnología, los medios y las telecomunicaciones está a la cabeza (donde el 92% de las compañías con IA desplegada a escala tienen sistemas de RAI en estado avanzado o en desarrollo), seguido del sector Farma y, en tercer lugar, Salud.
Los próximos años serán claves para el crecimiento de este ámbito. De acuerdo con un estudio reciente de Gartner, las tecnologías y sistemas RAI podrían alcanzar su madurez en términos de adopción y escala en un periodo aproximado de 6 años.
“Nunca se ha visto una adopción tecnológica tan rápida como la que estamos viviendo con las IAs generativas. Dado que la preocupación de los legisladores y las empresas es cada vez mayor, y que los riesgos aún son poco conocidos, el concepto de IA responsable debe situarse en primer plano para tomarse en serio la tecnología y colaborar para establecer formas comunes de trabajar con ella que ayuden a proteger a las personas y a las comunidades, al tiempo que se fomenta la innovación positiva”, comenta Bárbara Fernández, directora adjunta de MAPFRE Open Innovation y responsable de insur_space.
El papel de las aseguradoras para mitigar los riesgos de la IA
En la actualidad, la oferta de seguros que cubre los riesgos asociados al uso de la Inteligencia Artificial es prácticamente inexistente.
Los vehículos autónomos o sistemas utilizados en procesos industriales son los primeros ejemplos en los que empiezan a aparecer seguros específicos para la IA. Es precisamente en esos ámbitos donde se espera que la demanda aumente en el medio/largo plazo, extendiéndose al aseguramiento de cualquier sistema que esté gestionado íntegramente por algoritmos de IA. Es decir, sistemas que estén automatizados de principio a fin, en los que la decisión es tomada por la Inteligencia Artificial sin intervención humana.
Sin embargo, para esto es importante que se esclarezca la asignación de responsabilidades a través la regulación. Además, es necesario que se evalúen los productos aseguradores actuales para determinar el impacto del uso de la IA por parte de los clientes sobre sus coberturas. En algunos casos no será necesaria la creación de productos específicos, sino la adaptación/matización de los ya existentes.
En el caso de las aseguradoras, estas tienen un doble rol en el contexto actual: por un lado, deben garantizar que el despliegue interno que están haciendo de la tecnología es completamente seguro, sirviendo de ejemplo para otras industrias; por otro lado, deben acompañar y ayudar a los clientes en su propio despliegue de la IA y de la RAI para protegerlos a ellos, a los individuos y a la sociedad en general, previendo y evitando cualquier comportamiento indeseado y garantizando una solución y cobertura en caso de posibles daños.
Descarga el informe elaborado por MAPFRE aquí para profundizar más en el análisis de los riesgos de la IA y en las conclusiones extraídas de la investigación y el estudio de campo realizados.
ARTÍCULOS RELACIONADOS: