Embora algumas empresas já tenham começado a implementar programas que abordam a implantação controlada de IA, a demanda por seguros de IA será impulsionada pela pressão regulatória e automação total de processos.

Por Francisca Domínguez Zubicoa
O surgimento da inteligência artificial generativa (IA) despertou até mesmo empresas que estavam adormecidas nos últimos anos em termos de tecnologia e inovação. Não é raro ver agora que quase todas as organizações integraram esta tecnologia nos seus processos internos ou lançaram novos produtos, soluções e funcionalidades com IA. O setor de seguros, mais propenso a não correr riscos sem todas as informações necessárias, estão a olhar para esta tendência com cautela, tentando aprender tudo o que puderem sobre IA para poder adaptar os seus produtos e negócios a esta nova realidade.
Neste contexto, a Mapfre publicou um estudo interno intitulado “IA responsável: tecnologia segura e confiável que impulsiona a economia do futuro”, que realizou para entender como as empresas estão a lidar com os riscos da IA e as implicações éticas que podem surgir no uso desta tecnologia.
Segundo Bárbara Fernández, vice-diretora da Mapfre Open Innovation, entre as organizações há “uma perceção de risco, mas pensa-se que está sob controlo nesta fase, porque os casos de uso não estão a ser usados em escala”. Na verdade, de acordo com o relatório, apenas 13% das empresas têm IA implantada em escala.
Mas os riscos são muitos, disse Fernández, e estão basicamente agrupados em três blocos: operacionais, que têm a ver com a solidez, segurança e desempenho dos sistemas; ética, em que a equidade, a transparência e a explicabilidade dos modelos devem ser asseguradas; e regulamentar, onde o cumprimento e a responsabilização são fundamentais.
Atualmente, muitos países estão a trabalhar nas suas próprias normas para regular a IA, no entanto, não existe um quadro comum. “O regulamento é muito focado em evitar a discriminação, esta é uma das questões em que a colaboração entre os países está a ser vista. Mas não está claramente definido quem assumirá a responsabilidade se isso não funcionar bem”, explicou Fernández.
É aqui que entra a IA Responsável (RAI), que procura gerir o ciclo de vida dos modelos de IA seguindo os princípios, processos e políticas necessárias para garantir um impacto positivo desta tecnologia e a proteção dos indivíduos e da sociedade. A RAI “está a gerar um novo ecossistema e coordenando as contribuições de diferentes agentes com o objetivo comum de promover uma adoção ética e responsável da IA”, acrescentou Fernández.
A oferta da RAI, seja em seleção e processamento de dados, observabilidade, explicabilidade ou soluções de governança e compliance, é dominada principalmente por startups, embora os setores jurídico, de auditoria e de risco tenham começado a posicionar-se como líderes nessa área também. E em termos de implementação, os setores de tecnologia, media e telecomunicações estão liderando o caminho, onde 92% das empresas com IA implantada em escala têm sistemas RAI. Espera-se que o mercado de governança de IA cresça a uma taxa de 49,5% entre 2021 e 2023, de 54 milhões de dólares para 819 milhões dólares.
Uma oferta de seguro de IA quase “inexistente”
Com estas tendências como informação de fundo, a Mapfre detetou que a oferta de seguros que cobre os riscos associados ao uso da IA é “praticamente inexistente”. Mas há uma luz ao fundo do túnel. A pressão regulatória e a automação abrangente de processos impulsionarão a demanda por esse tipo de produto de seguros.
Já existem exemplos. Os setores de veículos autónomos e sistemas de processos industriais autónomos deram origem ao primeiro seguro específico de IA. “É precisamente nestas áreas que se espera que a procura aumente a médio longo/prazo, estendendo-se à garantia de qualquer sistema que seja gerido inteiramente por algoritmos de IA”, refere o relatório.
No entanto, a Mapfre alerta: é necessário que, antes que esse tipo de seguro seja popularizado, a alocação de responsabilidades quando estas tecnologias não funcionam adequadamente seja esclarecida por meio de regulamentação. Também é fundamental, continua, que a atual oferta de seguros seja avaliada para determinar o impacto do uso de IA na sua cobertura. É possível que a criação de um novo produto nem sequer seja necessária, mas é suficiente para adaptar os já existentes.
“Seja como for, é indiscutível que todos devemos aprender a usar corretamente a IA, entender os seus riscos e controlá-los No caso das seguradoras, devemos implantá-la internamente de forma segura, mas, além disso, devemos ajudar os clientes na sua jornada rumo à implantação da Inteligência Artificial Responsável. Devemos trabalhar para prevenir e evitar qualquer comportamento indesejado e proteger os indivíduos e a sociedade de danos”, conclui o relatório.
“Temos que trabalhar juntos, porque precisamos aprender. Temos que ter cuidado, mas não podemos parar”, disse Fernández.