BRANDS' ECO “Quem toma a decisão quando o agente é artificial?”
A pergunta de Margarida Lima Rego, da NOVA School of Law, deu o mote ao evento “Agentes da Mudança”, que reuniu no final do ano passado, na VdA, em Lisboa, académicos, empresas, reguladores e Governo.
“Estamos perante uma revolução. A IA deixou de ser apenas uma ferramenta passiva e evoluiu para uma panóplia de sistemas que agem autonomamente, definem metas e influenciam escolhas”, afirma Margarida Lima Rego, na abertura do evento “Agentes da Mudança – Agentic AI e o Futuro das Decisões”, organizado pela Capgemini e o WhatNext.Law, um centro de investigação que resulta de uma parceria entre a VdA e a NOVA School of law.
A investigadora destacou o facto de já não estarmos a viver algo que antes era considerado ficção científica e afirmou que, enquanto docente, pode criar um agente IA, que atue como seu assistente, interagindo com estudantes, respondendo a perguntas, corrigindo trabalhos e adaptando dinâmicas pedagógicas em tempo real.
-
Magda Cocco, Sócia Responsável pelas áreas de Comunicações, Proteção de Dados & Tecnologia e Digital Frontiers e pertence à comissão diretiva do Whatnext.law -
Cristina Rodrigues, Chief Executive Officer da Capgemini -
Margarida Lima Rego, Professora Catedrática e Diretora da NOVA School of Law
Mas o que acontece quando a inteligência artificial deixa de ser apenas uma ferramenta e passa a agir como um agente autónomo?
Na perspetiva de Cristina Rodrigues, Chief Executive Officer na Capgemini, a “tecnologia não é um fim, é um meio”. “O nosso objetivo é proteger os clientes em todos os trabalhos que fazemos”, diz, reconhecendo a oportunidade enorme que existe na Agentic IA, mas também “uma loucura” potencialmente perigosa, se não houver mecanismos de controlo, governança transparente e capacidade de auditoria.
Da IA Generativa à IA Agentic
A Inteligência Artificial não é um tema novo, mas têm percorrido diferentes fases desde que surgiu pela primeira vez. Miguel Mira da Silva, professor no Instituto Técnico de Lisboa recuou à IA Generativa, que está associada a chatbots e modelos que criam texto, imagens ou código, entre outras funções, para explicar a diferença entre os agentes de IA, que têm um comportamento autónomo, planeiam passos e executam tarefas com um objetivo definido. Neste sentido, a IA deixa de responder apenas a pedidos isolados e passa a orquestrar ações num ecossistema de sistemas e dados.
"Se os projetos de IA forem geridos como projetos de informática, não vão funcionar”
O professor deu exemplos, em diferentes áreas onde este tipo de tecnologia já está a ser aplicada. “Estou a criar tutores para que cada aluno possa ter o seu tutor personalizado e possa aprender. Há estudos que dizem que uma pessoa que tenha um tutor aprende duas vezes mais rápido e melhor”, explica.

Embora a IA generativa seja a mais conhecida e acessível a todos, Miguel Mira da Silva é da opinião que este tipo de ferramenta ainda não é utilizada de forma ampla pelas organizações portuguesas. Para o professor, projetos de IA não são projetos de informática, são projetos de inovação. Por isso, “se forem geridos como projetos de informática, não vão funcionar”, avisou.
Processos desatualizados, muitas vezes, com informação ainda em papel, pessoas e cultura organizacional sem formação e motivação para estes temas, são alguns dos desafios apontados pelo professor que é da opinião que falta a Portugal verdadeiros departamentos de inovação.
Na mesma linha de pensamento, está Massimo Ippoliti, Chief Technology and Innovation Officer da Capgemini para a Europa, que na sua apresentação, referiu que num futuro próximo irão existir milhares de milhões de agentes em ecossistemas ricos, a interagir entre si.
Sobre a aplicação destes agentes nas empresas, o especialista refere que “a maior falta de maturidade das empresas não está na tecnologia, mas nos dados, no conteúdo e na governança da IA agentic”.

A consultora estima em 540 mil milhões o valor da IA agentic até 2028, num contexto em que apenas 2% das empresas estão hoje a avançar em escala, mas em que se espera um crescimento acelerado nos próximos 18 meses.
Para o futuro, Massimo Ippoliti deixa uma questão: “Qual é a identidade de um agente de IA?” Uma pergunta tecnológica, jurídica, operacional e ética que, acredita, vamos ter de enfrentar já nos próximos anos.
Novos colegas, novo modelo organizacional
Antes da moda da GenAI, Ana Pinto Luz, responsável pelo Centro de Excelência de Inteligência Artificial do BPI (CEIA) diz que o BPI já tinha modelos de machine learning a trabalhar em marketing e operações, com leitura automática de documentos de crédito e mais de um milhão de páginas tratadas. Com a IA generativa, deu o salto para duas frentes: produtividade pessoal (com o Copilot disponível para todos) e casos industriais, com agentes em produção a responder ao helpdesk interno e a operar sobre knowledge bases específicas.
"Quando se vai implementar agentes, é preciso pensar num novo modelo de gestão e organizacional, em que as vossas equipas humanas e os vossos agentes colaboram no mesmo processo de negócio”
Do lado da execução, o banco combina a IA generativa com a nova geração de agentes. Há modelos a trabalhar em marketing, operações e leitura automática de documentos, mas também IA generativa aplicada à produtividade pessoal e à operação interna. “Na vertente de IA generativa industrial já temos agentes em produção”, contou Ana Pinto Luz. “Temos todo o helpdesk interno do Banco BPI, para todos os pedidos, propostas e respostas, dado através de agentes”, construídos sobre knowledge bases específicas e instruções claras para cada tipo de pedido. 2025 marcou ainda um ponto de viragem na adoção: “Foi pela primeira vez o ano em que, olhando para 2026, tenho as minhas áreas do banco não só envolvidas, mas comprometidas com métricas claras, com impacto nas suas remunerações variáveis, de adoção de IA.”

A gestão de dados surge como tema inevitável. Em vez de esperar pelo cenário ideal, o BPI escolheu avançar com o que era suficiente para resolver a maioria dos casos. “Os dados podem ser um problema ou podem ser uma oportunidade. Se estamos à espera que os dados estejam todos unificados, todos catalogados e todos organizados, não vamos conseguir avançar”, avisou Ana Pinto Luz.
Tiago Esteves, da Salesforce, lembrou que a empresa já disponibiliza uma arquitetura de agentes configuráveis em linguagem natural, mas insistiu que isso é apenas uma parte da equação. “A tecnologia é só uma peça, é só uma tecnologia”, disse, defendendo que o verdadeiro salto está na forma como as organizações se desenham para trabalhar com estes sistemas. “Quando se vai implementar agentes, é preciso pensar num novo modelo de gestão e organizacional, em que as vossas equipas humanas e os vossos agentes colaboram no mesmo processo de negócio”, sublinhou.
Regulação: uma corrida contra o tempo
Quando entramos no campo jurídico a pergunta inicial parece simples: como e quem é que vai controlar estes sistemas que agem autonomamente? O painel moderado por Mathias Hurbert juntou Raquel Brízida Castro, vice-presidente da ANACOM, Vera Lúcia Raposo, professora na NOVA School of Law e Magda Cocco, sócia da VdA para discutir o AI Act e os desafios específicos da IA agentic.
Para Raquel Brízida Castro, o regulamento europeu é uma verdadeira “constitutional oddity”, ou seja, não é um catálogo de direitos fundamentais, mas impede os Estados de legislarem sobre desenvolvimento, comercialização e utilização da IA em muitas dimensões. O seu aviso é claro: “Podemos ter um sistema classificado como de baixo risco que, ao ganhar propriedades agênticas, dá um salto para alto risco” e de acordo com a vice-presidente o AI Act não prevê este “risk jump.”

Magda Cocco lembra que o AI Act se constrói sobre casos de uso de alto risco e que qualquer agente que atue, por exemplo, em decisões de crédito, fica automaticamente dentro do perímetro mais exigente. Mas reconhece que a agentificação obriga a olhar de novo para a forma como mapeamos modelos, riscos e responsabilidades.
A sócia da VdA refere que muitas organizações trataram o RGPD como um “tick in the box” e não como oportunidade para estruturar informação. Agora, com IA, isso volta com força redobrada. “Os dados deixaram de ser um tema de compliance para se tornarem um tema de governance absolutamente crítico”, sublinhou Magda Cocco.
Vera Lúcia Raposo deixou um conselho para o uso desta ferramenta: “Para que a IA nos traga empowerment e não estupidificação, temos de investir seriamente na literacia em IA – técnica e cidadã”.
Quando a IA entra em prática
Na Fidelidade, Ricardo Gonçalves lidera um centro de IA desde 2017. Hoje, a seguradora tem sistemas a tratar declarações amigáveis de acidente e faturas médicas sem intervenção humana na maioria dos casos, e a apoiar o serviço ao cliente, incluindo um IVR em linguagem natural que substitui o velho “prima 1, prima 2”. “Com a declaração amigável automática passámos de 24 horas para minutos”, explica Ricardo Gonçalves.

No caso da MEO, Paulo Pereira, diretor do AI Center, falou de duas grandes frentes: evitar problemas, através de modelos preditivos sobre a rede e o serviço, e resolver melhor quando algo corre mal, com IA a ajudar operadores a perceber intenções, estados de espírito e, sobretudo, a explicar faturas – um dos temas mais sensíveis. “Não mudámos as métricas por causa da IA”, explicou. A comparação é sempre feita com os indicadores que a casa já conhece, do tempo médio de atendimento ao número de contactos repetidos.
O Grupo Brisa está mais no início da jornada, mas a acelerar. O Chief Data and AI Officer, Pedro Gomes Mota refere que o foco é assente na ideia de “business problem first”, uma vez que a tendência é chegarem ideias pouco estruturadas em que é necessário fazer o caminho de chegar ao problema.
A literacia é uma aposta forte do grupo. “Está a decorrer mais uma das nossas várias formações sobre IA e Advanced Analytics e como é que isso pode ser utilizado em negócio”, explica Pedro Gomes Mota.
Confiança no futuro
Com os riscos ainda por calcular, como é que vai ser mantida a relação entre o humano com a máquina? Como é que podemos melhorar a confiança numa inteligência artificial cada vez mais autónoma?
Para Arlindo de Oliveira, professor do Instituto Superior Técnico, a confiança começa por uma engenharia mais específica. “Em vez de termos um ChatGPT genérico a falar com um cliente bancário, precisamos de sistemas configurados para essas funções, com muito mais contexto e riscos mais limitados,” explica.
O professor reconheceu que estes modelos já são “super-humanos” em muitos domínios de conhecimento, mas continuam fracos no raciocínio abstrato e com números. O segredo para o salto seguinte pode estar na metacognição: modelos que não só “sabem coisas”, mas sabem o que sabem.

Joana Gonçalves de Sá, coordenadora do grupo Social Physics & Complexity Lab, trouxe a perspetiva dos sistemas complexos e da política pública. “Eu não tenho de perceber aerodinâmica para confiar num avião, nem bioquímica para confiar num medicamento. Confio porque há regulação, testes e enforcement”, recordou.
Joana Gonçalves de Sá explica, ainda, que a expectativa para perceber a IA ou confiar no seu uso adequado, que se coloca no lado das empresas e do indivíduo, é errada.
“Não podemos ter a expectativa de ter pessoas sem formação técnica a tomar decisões relativamente à IA, tal como não temos nas outras áreas. Isto não é responsabilidade individual, nem das empresas”, explica.
Já Paulo Dimas, CEO do Centre for Responsible IA, alertou para um risco menos óbvio: o “human touch” pode ser parte do problema. Modelos desenhados para agradar tendem a dizer o que acham que queremos ouvir. O especialista diz que um dos maiores riscos é quando os modelos tentam ser demasiado humanos. Foram desenhados para nos agradar e, muitas vezes, dizem-nos o que queremos ouvir, não o que é verdade.
“O primeiro passo para confiarmos na Inteligência Artificial é conseguirmos identificar quais é que são as tarefas boas e más para a IA”, explica Paulo Dimas.
Como é que Portugal aproveita este momento?
“Estamos numa altura em que, bem capitalizada, uma tecnologia como estas pode ter um impacto transformacional das nossas sociedades e, se for bem encaminhada, com ética e com responsabilidade e com sentido de que a tecnologia é para servir os seres humanos e não ao contrário, então estamos numa altura em que podemos fazer uma diferença gigantesca sobre aquilo que será a vida das pessoas”, refere o Secretário de Estado para a Digitalização, Bernardo Correia, numa conversa com Magda Cocco.
De um lado, a Europa consome modelos alinhados com éticas que “podem ser parecidas com as nossas, mas não são necessariamente as nossas”. Do outro, precisa de investir em ciência e capacidade industrial para, a prazo, também gerar modelos, controlar infraestrutura e imprimir valores europeus na tecnologia que usa.

O secretário de Estado deixou ainda dois recados à plateia. O primeiro, sobre regulação: a nossa capacidade de prever o impacto da tecnologia é “nula ou negativa”, por isso é preciso legislar com agilidade. “Se fizermos demasiada prescrição hoje, falhamos de certeza absoluta”, disse.
O segundo, dirigido às empresas: o Estado não chega para tudo. “Ninguém pode esperar que o Estado resolva os problemas todos. Sem investimento e experimentação por parte das empresas, o mundo não vai mudar.”
Assine o ECO Premium
No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.
De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.
Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.
Comentários ({{ total }})
“Quem toma a decisão quando o agente é artificial?”
{{ noCommentsLabel }}