Adolfo Mesquita Nunes defende debate sobre limite dos Estados ao exigir tecnologia de defesa a empresas privadas

  • Lusa
  • 13 Março 2026

O advogado defende um debate sobre até que ponto o Estado pode obrigar empresas privadas a disponibilizar ou adaptar tecnologias estratégicas, numa altura em que a IA se tornou central para a defesa.

Adolfo Mesquita Nunes, advogado e sócio da Pérez-Llorca, evidencia, em entrevista à Lusa, que a inteligência artificial (IA) se tornou uma tecnologia estratégica para a defesa e para soberania dos Estados e que são desenvolvidas por privados.

Em 10 de março, a empresa norte-americana de inteligência artificial (IA) Anthropic processou judicialmente o governo norte-americano depois de o Pentágono ter classificado a tecnológica de risco para cadeia de abastecimento. “O que se está a passar de verdadeiramente essencial é que a inteligência artificial se tornou uma tecnologia estratégica para a defesa e para a soberania dos Estados, que são tecnologias que estão a ser desenvolvidas por empresas privadas e não pelo Estado”, diz Adolfo Mesquita Nunes.

E, por isso, “surge uma pergunta que é: até que ponto é que o Estado pode obrigar empresas privadas a disponibilizar ou adaptar tecnologias estratégicas para fins militares e de defesa e se pode livrar de todas as condições que estas possam impor”.

“Esta é a questão que está aqui em causa”, aponta o advogado e ex-secretário de Estado. Aliás, “não é a primeira vez que temos tecnologia na área da defesa, mas é a primeira vez que esta tecnologia está completamente dependente de prestadores privados”, enfatiza. E a tensão entre a Anthropic e o Pentágono está, no fundo, “nesta questão: até que ponto é que o Estado pode ir e que direito têm as empresas de preservar as suas orientações sobre produtos e tecnologias que foram elas que disponibilizaram“, salienta Adolfo Mesquita Nunes.

Para o sócio da Pérez-Llorca, “é normal que os Estados procurem em matérias de defesa e de soberania impor um conjunto de regras às empresas privadas”, agora “o que não é desejável que aconteça é que isto seja feito através de decisões casuísticas, sem enquadramento, muitas das vezes, ou aparentemente, sem grande coerência e sem grande critério”. Adolfo Mesquinta Nunes espera que daqui resulte “uma reflexão sobre esta relação entre Estado e empresas privadas de inteligência artificial na área da defesa”.

Aquilo que aconteceu é que “o Pentágono classificou a Anthropic como risco para a cadeia de abastecimento e isso, na prática, impede a empresa de trabalhar com o Departamento de Defesa”. Além disso, “esta designação, de facto, costuma ser usada contra empresas consideradas risco de segurança nacional, tipicamente com ligações a governos estrangeiros”, recorda.

Ou seja, “nunca tinha sido aplicada a uma empresa americana de inteligência artificial”, pelo que a Anthropic “argumenta que a decisão é ideológica (…) e arbitrária e está relacionada com a recusa da empresa em permitir usos militares mais agressivos, digamos assim, da sua tecnologia”. Aliás, “há aqui um precedente perigoso”, adverte Adolfo Mesquita Nunes.

Isto porque “se o governo puder classificar empresas como risco de segurança por razões políticas, pode excluir empresas tecnológicas de contratos públicos sem critérios claros e, portanto, ilegitima ou permite o governo pressionar empresas para alterar salvaguardas éticas ou políticas do uso de IA”. Nesse sentido, “este caso levanta preocupações sobre (…) o controlo governamental sobre tecnologias estratégicas que são desenvolvidas pelo setor privado”, aponta o advogado.

“Aquilo que estamos a falar é da possibilidade de utilizar tecnologia de inteligência artificial sem supervisão humana, podendo já tomar decisões que podem impactar com a vida de pessoas e, portanto, não são questões menores”, remata.

“Espero que Europa não olhe para caso Anthropic como um episódio americano”

O advogado da Pérez-Llorca disse ainda esperar, que a Europa não olhe para o caso da tecnológica de IA Anthropic como um mero episódio americano e que tal leve à reflexão. “Eu espero que a Europa não olhe para este conflito como uma espécie de episódio americano, estas tensões que estão a acontecer entre a Anthropic e o governo dos Estados Unidos são inevitáveis”, salienta o ex-secretário de Estado.

“Definir até que ponto é que o Estado pode obrigar empresas privadas a disponibilizar ou adaptar tecnologias estratégicas em nome da segurança e da soberania de um Estado é um debate que pode e que deve ser feito”, defende Adolfo Mesquita Nunes. No caso da Europa, “temos enquadramentos regulatórios, mesmo aplicados ao setor da defesa, que enquadram de que forma é que o Estado e as empresas privadas se podem relacionar”, diz.

“Não há dúvida de que estas novas tecnologias levantam questões substancialmente diferentes, mas a prática na Europa é de haver um enquadramento que torne previsível, de certa forma, mais equilibrado e transparente este relacionamento”, sublinha o advogado. No caso dos Estados Unidos, “o que aparenta ter acontecido (…) é uma decisão completamente casuística e arbitrária e até, de alguma forma, penalizadora”, sem que haja um enquadramento que permita.

“O interesse deste caso para a Europa é perceber que as tecnologias de inteligência artificial desempenham um papel extraordinário no setor da defesa, de tal forma que os Estados Unidos atuaram desta forma, mas também têm que perceber que este conflito antecipa tensões inevitáveis entre a capacidade defensiva dos Estados, a autonomia tecnológica e a proteção dos valores fundamentais”, enfatiza o autor do livro “Algoritmocracia”, lançado em 2025.

Paralelamente, “as empresas europeias que trabalham neste setor precisam de ter uma arquitetura de governação que seja robusta para poderem relacionar-se com os Estados”, aponta. A defesa, recorda, “sempre foi um setor profundamente tecnológico” e tecnologias de fronteira foram sempre aplicadas na área da defesa, pelo que “isto não é novidade”, contextualiza.

Agora, a novidade é que estas tecnologias “estejam todas no setor privado, que o Estado não tenha uma intervenção nelas e que estas tecnologias sejam potencialmente capazes de tomarem decisões sem necessidade de intervenção humana, se devidamente programadas para o efeito”, destaca.

Este é um “debate que não está feito”, adverte. Até porque quando se discute inteligência artificial em setores de fronteira ou com impacto para a segurança ou vida das pessoas, “a necessidade de supervisão humana” e de “enquadramento da atuação” da IA é um ponto essencial.

Tendo em conta o que a Anthropic, afirmou, o que se está a falar neste caso é “da possibilidade de o Estado poder querer utilizar tecnologias de inteligência artificial onde a intervenção humana é desnecessária e onde pode haver decisões que podem impactar na vida e na segurança das pessoas” e “esta é uma discussão que não está feita”, mas “que vai seguramente acontecer”, reforça. O AI Act, regulamento europeu de IA, que é “o marco regulatório que a União Europeia tem para a inteligência artificial, exclui estas matérias”.

Aliás, “é normal que exclua porque os regimes de contratação aplicáveis ao setor da defesa são normalmente distintos dos aplicáveis a outros setores e isso é normal que aconteça, mas há enquadramento regulatório”, diz. Ora, “aqui na inteligência artificial ainda não há. E por isso parece-me que a União Europeia vai ter de olhar” para este tema “porque isto não levanta apenas questões de soberania, levanta questões sobre o transparente ou previsível ou equilibrado relacionamento entre os Estados e as empresas privadas” neste setor.

“A minha visão é que esse relacionamento entre o Estado e as empresas privadas deve ter um enquadramento que deve ser próprio do setor da defesa e, portanto, tenha em conta as especificidades do setor da defesa, mas deve ter o mínimo de previsibilidade, de estabilidade e ser independente de caprichos ou de orientações políticas do momento como aparentemente terá acontecido nos Estados Unidos”, considera.

“E isto é uma discussão inevitável”, assevera, salientando que as regras “têm que existir, desde logo, (…) devem estar previamente definidas” e devem “ter o mínimo de transparência e respeitar princípios básicos de direito no relacionamento entre o setor público e o setor privado, ajustadas às necessidades típicas de um setor como a defesa”.

Assine o ECO Premium

No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.

De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.

Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.

Comentários ({{ total }})

Adolfo Mesquita Nunes defende debate sobre limite dos Estados ao exigir tecnologia de defesa a empresas privadas

Respostas a {{ screenParentAuthor }} ({{ totalReplies }})

{{ noCommentsLabel }}

Ainda ninguém comentou este artigo.

Promova a discussão dando a sua opinião