
Solvência Algorítmica
Nuno Oliveira Matos considera que os atuários têm, mais do que nunca, a obrigação de assegurar que a inteligência artificial no setor segurador é, acima de tudo, humana.
Com a entrada em vigor do Regulamento (EU) 2024/1689, do Parlamento Europeu e do Conselho, de 13 de junho de 2024 (doravante “AI Act”), na União Europeia, o setor segurador confronta-se com uma mudança de paradigma na forma como os algoritmos são concebidos, validados e supervisionados.
Longe de ser um simples check-the-box regulatório, a classificação de sistemas de inteligência artificial (IA) em função do risco, com especial destaque para os considerados high risk, como os modelos de pricing em seguros de vida e saúde, obriga a repensar profundamente os processos de model risk management (MRM), a partir de um novo framework técnico e ético.
Neste contexto, os atuários não podem permanecer na sombra dos data scientists. A sua formação rigorosa em modelização probabilística, validação de pressupostos e análise de sensibilidade, coloca-os numa posição única para liderar, com responsabilidade e independência, os processos de governação algorítmica que o “AI Act” exige. Mais do que cumprimento, está em causa a sustentabilidade reputacional e regulatória das empresas de seguros num ecossistema digital cada vez mais exposto a “riscos opacos”.
A interseção entre o “AI Act” e o regime de Solvência II representa uma zona fértil para a inovação regulatória. Muitos dos pilares da governação dos modelos de IA de alto risco, desde o registo e monitorização contínua até aos testes de robustez e mitigação de enviesamentos, ressoam com práticas já familiares aos atuários no contexto do ORSA (Own Risk and Solvency Assessment). Porém, há diferenças cruciais: o “AI Act” desloca o centro da análise do risco técnico-atuarial para o impacto nos direitos fundamentais, exigindo uma articulação íntima entre a função-chave atuarial, o DPO (Data Protection Officer) e os responsáveis pela ética digital.
O paradigma do explainability e do fairness algorítmico, plasmado no “AI Act”, implica a institucionalização de métricas estatísticas para a deteção e mitigação de enviesamentos (como statistical parity, equalized odds ou disparate impact).
Importa salientar que não se trata apenas de técnicas de machine learning. Trata-se de governança. Modelos utilizados em pricing, underwriting ou triagem de sinistros que incorporem processos adaptativos ou “autoaprendentes” poderão ser classificados como IA de alto risco, obrigando a avaliações contínuas, documentação detalhada e impact assessments prévios, mesmo em modelos com desempenho historicamente estável.
É na figura do Deployer, o utilizador institucional do sistema, que se concentram responsabilidades particularmente sensíveis: garantir a supervisão humana efetiva, assegurar a compatibilidade com os princípios do RGPD e o reporte de incidentes graves
A nova taxonomia do “AI Act” identifica quatro operadores-chave: Providers, Distributors, Importers e Deployers. Os atuários podem estar envolvidos em qualquer um destes papéis, mas é na figura do Deployer, o utilizador institucional do sistema, que se concentram responsabilidades particularmente sensíveis: garantir a supervisão humana efetiva, assegurar a compatibilidade com os princípios do Regulamento Geral sobre a Proteção de Dados (RGPD) e o reporte de incidentes graves.
O risco já não é apenas técnico; é reputacional, legal e ético. O erro de classificação algorítmica num processo de underwriting pode não ser apenas uma falha operacional, pode ser interpretado como discriminação sistémica.
Não basta que os atuários dominem os modelos; é imperativo que liderem a sua governação. Isto exige reforçar a função-chave atuarial como segunda linha de defesa dos modelos de IA, com formação contínua em AI ethics, XAI (eXplainable AI) e integração com equipas multidisciplinares de compliance, IT e jurídico.
Este novo contrato fiduciário das empresas de seguros com a tecnologia, o regulador e o consumidor, reposiciona o atuário como o “custodiante da confiança” num mundo onde decisões automatizadas afetam vidas humanas.
O século XXI será marcado pela solvência algorítmica, a par da financeira. O “AI Act” é mais do que uma peça legislativa; é um convite à refundação da prática atuarial para um tempo em que o risco é invisível, mas não menos real. A pergunta já não é se as empresas de seguros vão adotar IA, mas sim se o farão com responsabilidade, ética, transparência e justiça. Os atuários têm, mais do que nunca, a obrigação de assegurar que a inteligência artificial no setor segurador é, acima de tudo, humana, pois num mundo onde os algoritmos decidem, a verdadeira fronteira do risco já não é o erro de cálculo; é abdicar do juízo humano.
Quando os algoritmos ganham voz nas decisões, o silêncio do humano é o verdadeiro risco!
Assine o ECO Premium
No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.
De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.
Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.
Comentários ({{ total }})
Solvência Algorítmica
{{ noCommentsLabel }}