Governação e Supervisão de Riscos na Era da Inteligência Artificial

  • Helena Chaves Anjos
  • 15:40

Helena Chaves Anjos escreve sobre Inteligência Artificial quando eventos como o recente apagão que afetou vastas regiões da Península Ibérica, expõem a vulnerabilidade das infraestruturas críticas.

Num momento em que o setor segurador nacional debate os desafios da inovação tecnológica e se reposiciona no contexto da transição digital, a Inteligência Artificial (IA) afirma-se como uma tecnologia-chave, com potencial para transformar profundamente os modelos de negócio, os processos operacionais e a relação com os clientes.

Este potencial, no entanto, acarreta também riscos éticos, jurídicos e operacionais — riscos que se tornam particularmente evidentes quando eventos disruptivos, como o recente apagão que afetou vastas regiões da Península Ibérica, expõem a vulnerabilidade das infraestruturas críticas. A consulta pública lançada pelo supervisor europeu, no âmbito da governação e gestão de riscos em IA — debatida no seminário técnico de 8 de abril de 2025 — surge, assim, como uma referência estratégica numa reflexão regulatória cada vez mais urgente.

Da inovação à supervisão na opinião em consulta

A proposta de opinião da Autoridade Europeia dos Seguros e Pensões Complementares de Reforma, (EIOPA – European Insurance and Occupational Pensions Authority), em consulta publica até meados de maio1, sobre a utilização de sistemas de IA no setor segurador, responde ao desafio de preencher um espaço regulatório ainda pouco estruturado para as tecnologias classificadas de “risco baixo ou limitado”, fora do âmbito mais exigente do regulamento Europeu sobre inteligência artificial – AI Act.

A proposta não cria novas obrigações legais, contudo, oferece orientações interpretativas de aplicação dos princípios da legislação setorial — nomeadamente no quadro do regime da Solvência II — a esta nova realidade algorítmica.

Com base numa abordagem baseada no risco – risk-based approach – e num princípio de proporcionalidade, o documento estrutura-se em torno de seis pilares fundamentais: ética e foco no consumidor; clarificação de papéis; explicabilidade algorítmica; governação de dados; registos e documentação; e promoção da literacia digital. O objetivo do regulador é claro, será criar mais confiança. Confiança nas tecnologias, confiança nos processos, confiança nas instituições e no setor segurador.

Explicabilidade e ética como pilares da confiança

A proposta destaca que, mesmo para sistemas de IA de risco limitado, é essencial garantir a explicabilidade das decisões. No setor segurador, onde os algoritmos influenciam a tarifação, a gestão de sinistros ou a subscrição, esta capacidade de explicação não é meramente técnica, mas uma exigência ética e reputacional. Um cliente deve poder compreender, e eventualmente contestar, uma decisão automatizada que o afete social, económica ou financeiramente.

Governação e supervisão além da conformidade

Outro dos pontos estruturantes é a governação de dados e a sua supervisão. A qualidade, representatividade e atualidade dos dados alimentam e definem a integridade dos sistemas de IA. Sem dados robustos, não há decisões fiáveis. O documento recomenda políticas rigorosas de documentação, atualização e rastreabilidade, capazes de sustentar tanto a supervisão interna como a auditoria externa.

Responsabilidades e desafios de implementação

A implementação destas orientações exige competências. A literacia digital passa a ser um ativo crítico — quer ao nível da direção, quer nas equipas de gestão e operacionais. O envolvimento dos conselhos de administração nas decisões estratégicas relativas à IA, bem como na definição de responsabilidades claras e alocação de recursos adequados, são indispensáveis para que os princípios regulatórios se traduzam em práticas concretas na gestão das operações diárias das empresas de seguros.

Riscos de convergência regulatória em curso

Um dos contributos mais interessantes do seminário da EIOPA foi a articulação do conceito de “High Risk”, tal como definido no regulamento Europeu, do AI Act, com desafios para o setor segurador.

Um sistema IA de alto risco (High-Risk AI), será por definição um sistema cujo uso e impacto potencial, pode representar uma ameaça significativa para a saúde, segurança ou direitos fundamentais das pessoas. Estes sistemas estão sujeitos a obrigações rigorosas de conformidade, transparência, documentação, qualidade de dados e supervisão humana. São considerados de alto risco os sistemas incluídos numa lista específica do regulamento, como os utilizados na avaliação de risco de crédito, no recrutamento ou avaliação de desempenho profissional, em infraestruturas críticas como energia ou transportes, na educação e formação, ou ainda em contextos jurídicos, de policiamento e de gestão de fronteiras.

Além disso, também se classificam como de alto risco os sistemas de IA utilizados como componente de segurança em produtos regulados por legislação setorial da União Europeia, como dispositivos médicos ou veículos autónomos. Estes sistemas estão sujeitos a requisitos de avaliação prévia de conformidade, gestão de risco contínua, utilização de dados de alta qualidade e representatividade, registo e rastreabilidade dos processos, transparência e explicabilidade, com especial supervisão humana devidamente adequada e um registo obrigatório na base de dados europeia para sistemas de IA de alto risco.

A referência paralela ao comunicado da ASF, de 10 de abril2, sobre jurisdições de risco elevado, no contexto da prevenção do branqueamento de capitais, convida a uma leitura atenta e estratégica destes riscos emergentes no setor segurador nacional, no contexto da transição e regulação digital Europeia.

Supervisão inteligente e governação responsável

A consulta pública, em curso, oferece uma oportunidade para que o setor se envolva ativamente neste debate. O desafio não é exclusivamente técnico, é também político e institucional. A supervisão da IA nos seguros não deve limitar a inovação, contudo, terá de assegurar que esta se desenvolve com responsabilidade, transparência, ética e benefício para o consumidor. A implementação eficaz de uma estrutura de governação robusta da IA nas empresas de seguros poderá implicar, como tal, a necessidade de uma abordagem estratégica, que inclua:

  • Criação de um Comité de Supervisão da IA: Responsável por garantir que as práticas de IA estejam em linha com os princípios éticos e regulatórios da empresa;
  • Desenvolvimento de Políticas de Gestão de Dados: Definir como os dados são recolhidos, processados e utilizados, garantindo que as melhores práticas de segurança de dados e proteção da privacidade sejam seguidas e respeitadas;
  • Formação e Capacitação das Equipas: A formação contínua dos colaboradores sobre os impactos da IA, ética e governação, para garantir uma cultura organizacional ética;
  • Monitorização Contínua e Avaliação: Implementação de métricas de desempenho e ética, com auditorias regulares aos sistemas de IA para garantir que os objetivos organizacionais e os princípios éticos sejam cumpridos.

Conclusão

A convergência entre os temas debatidos na transição digital, em particular, no âmbito da governação e supervisão de riscos de IA e os desafios de transformação tecnológica do setor nacional, em curso não é acidental — é estratégica.

A transformação digital no setor segurador só será verdadeiramente sustentável se for sustentada por uma estrutura de governação da IA robusta, ética e transparente. Como sublinhado por especialistas, “80% da transformação é sobre pessoas e apenas 20% sobre tecnologia”. Esta perspetiva humanista da inovação reforça a necessidade de capacitar as equipas, clarificar as responsabilidades e promover a literacia digital como condição para o sucesso.

Nesse sentido, a governação da IA constitui o desafio da mudança interna — organizando, clarificando e responsabilizando —, enquanto a supervisão regulatória representa o enquadramento externo, assegurando que a transição digital decorre em conformidade com os princípios e valores do setor, no quadro regulatório europeu.

Mais do que perspetivas complementares, estamos perante uma única agenda: a da transformação digital, centrada na confiança, na explicabilidade e na responsabilidade partilhada entre empresas, reguladores e consumidores.

Consolidar este percurso é essencial para garantir que a inovação tecnológica evolui com o rigor da gestão de risco — de forma prudente, transparente e com sentido de missão — numa era em que os riscos de disrupção se tornam cada vez mais visíveis e sistémicos.

1 EIOPA’s Opinion on AI governance and risk management, Consultation paper, 12 Feb-12 May2025.
2 Comunicado Regulamentar ASF, Circular nº4/2025, 8 de abril de 2025.

  • Helena Chaves Anjos
  • Economista e Mestre em Finanças. Especialista em gestão de risco nos seguros

Assine o ECO Premium

No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.

De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.

Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.

Comentários ({{ total }})

Governação e Supervisão de Riscos na Era da Inteligência Artificial

Respostas a {{ screenParentAuthor }} ({{ totalReplies }})

{{ noCommentsLabel }}

Ainda ninguém comentou este artigo.

Promova a discussão dando a sua opinião