E se a IA correr mal?

  • Rui Shantilal
  • 1 Outubro 2025

O caminho não é dizer sim ou não à IA. É reconhecer que cada adoção é um equilíbrio entre valor e risco — e garantir que o risco não é varrido para debaixo do tapete.

Não, não sou pessimista, nem negacionista. Não acredito que se possa parar o vento com as mãos. Mas também não alinho em modas cegas. Tenho experiência suficiente para me atrever a perguntar: e se a IA correr mal?

A inteligência artificial (IA) é frequentemente apresentada como uma revolução imparável, o combustível que vai acelerar a inovação em todas as frentes. Automatiza tarefas, aumenta a eficiência, e abre portas que até há poucos anos nos pareciam ficção científica. Mas a verdade é esta: cada vez que integramos IA nas nossas organizações, não estamos apenas a ganhar capacidade. Estamos também a adicionar risco. E se esse risco for ignorado ou subestimado, o valor prometido pode evaporar-se rapidamente ou até tornar-se negativo. Uma conversa séria sobre IA tem de equilibrar entusiasmo com responsabilidade.

Vamos encarar os factos: os atacantes são sempre mais rápidos. Não têm de prestar contas a comités de ética ou respeitar regulações apertadas. Não esperam seis meses por um processo de procurement para testar uma nova ferramenta. Experimentam livremente, falham depressa e aprendem mais depressa ainda. E têm pouco ou nada a perder: não enfrentam o risco de corromper bases de dados em produção, de parar operações ou de violar a confidencialidade, integridade ou disponibilidade de serviços críticos. Enquanto isso, as organizações movem-se devagar, presas a processos de controlo e responsabilização.

É precisamente essa assimetria que torna a análise de risco ainda mais urgente. Quando o avanço ofensivo é mais rápido do que a nossa capacidade de defesa, não podemos dar-nos ao luxo de improvisar. Temos de antecipar. Temos de preparar. Temos de assumir que a falha é possível — e construir com base nesse cenário.

E quando a IA falha, não precisamos de fazer muito esforço para imaginar as consequências. Por vezes, os erros são quase cómicos — uma IA num drive-thru que confunde o pedido e entrega 260 nuggets ou um gelado com bacon. Rimo-nos porque o impacto é nulo. Mas transportemos esta lógica para um hospital, uma rede elétrica ou um carro autónomo, e o resultado pode ser trágico. O mesmo erro que diverte num restaurante fast-food pode matar quando a IA está embebida em infraestruturas críticas.

E é aqui que entra a mente do atacante. Os profissionais de cibersegurança — e sobretudo os atacantes — são mestres em fazer a tecnologia comportar-se de formas para as quais nunca foi pensada. Os mesmos princípios por trás de um phishing ou de uma injecção de código já estão a ser aplicados à IA, sob novas técnicas como o “prompt injection“. Pensemos num exemplo: sistemas de assistência inteligente à condução. Se os carros passarem a obedecer automaticamente aos limites de velocidade detectados por IA, basta um atacante no carro da frente erguer um cartaz com um sinal falso. O carro de trás trava de repente. O que era uma funcionalidade de segurança, transforma-se num vetor de ataque.

É por isso que a análise de risco não pode ser feita depois do sistema estar a funcionar. Tem de vir antes. Toda a adoção de IA deve começar com perguntas difíceis: e se isto falhar? E se for manipulado? Qual é o impacto se o erro for explorado à escala? Sem esta disciplina, as organizações correm o risco de adotar IA de forma cega — transformando inovação em vulnerabilidade.

Aqui, a regulação tem um papel, mas tem de ser inteligente. Deve começar no macro, e só depois mergulhar no micro. No macro, significa responsabilizar as organizações por adotarem boas práticas: fazer análise de risco, colocar salvaguardas, demonstrar capacidade de mitigar dano. Só depois, quando os casos de uso estiverem maduros, deve surgir regulação mais detalhada. Ir para o detalhe demasiado cedo só serve para congelar a inovação sem realmente aumentar a segurança.

Mas regulação não chega. Tem de vir acompanhada de contramedidas reais, fruto de uma análise de risco rigorosa. As organizações devem conseguir mostrar — especialmente quando sujeitas a auditoria ou regulação — que analisaram falhas potenciais e definiram contramedidas adequadas, consoante o contexto e o impacto. Exemplos concretos incluem registos de auditoria em sistemas financeiros, supervisão humana em diagnósticos de saúde, ou monitorização ativa em veículos autónomos. Uma das defesas mais eficazes é garantir que sistemas de IA com impacto elevado estão sempre sob supervisão, auditáveis e com monitorização em tempo real.

É precisamente este tipo de abordagem que evita que o valor prometido pela IA se evapore — ou pior, que se transforme em prejuízo real. A gestão de risco, quando bem aplicada, não é um travão: é aquilo que permite avançar com segurança, consolidar confiança e transformar potencial em impacto.

Este tipo de abordagem transforma a gestão de risco em algo vivo, ativo, que permite manter a IA alinhada com a confiança e com a segurança.

O caminho não é dizer sim ou não à IA. É reconhecer que cada adoção é um equilíbrio entre valor e risco — e garantir que o risco não é varrido para debaixo do tapete. Se gerirmos essa equação com seriedade, a IA pode ser uma aliada poderosa. Se não o fizermos, podemos acabar com mais perigo do que valor.

No final do dia, a verdadeira moeda da inovação digital é a confiança. E a pergunta que devemos fazer não é se a IA vai correr bem — mas se estamos a levar a sério o que pode acontecer quando ela correr mal.

Se não tratarmos o risco com seriedade, a próxima grande inovação pode ser também o nosso próximo grande erro.

  • Rui Shantilal
  • VP Devoteam | Cyber Trust

Assine o ECO Premium

No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.

De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.

Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.

Comentários ({{ total }})

E se a IA correr mal?

Respostas a {{ screenParentAuthor }} ({{ totalReplies }})

{{ noCommentsLabel }}

Ainda ninguém comentou este artigo.

Promova a discussão dando a sua opinião