.IA

IA acelera a guerra, esvazia o controlo humano e dá poder às ‘Big Tech’

Com a inteligência artificial (IA) a ser "utilizada em todo o ciclo do conflito", há cada vez menos participação humana nas cadeias de decisão militares. Direito internacional "não funciona aqui".

ECO Fast
  • A inteligência artificial está a transformar profundamente os conflitos armados, comprimindo o tempo de decisão e alterando o equilíbrio de poder entre Estados e empresas privadas.
  • A compressão do ciclo de decisão militar levanta preocupações sobre a falta de controlo humano em decisões sensíveis tomadas em contexto militar.
  • A ausência de regulamentação clara sobre a utilização de IA na Defesa pode resultar numa privatização da guerra, colocando em risco a soberania dos Estados e a segurança global.
Pontos-chave gerados por IA, com edição jornalística.

A inteligência artificial (IA) já não é um conceito lateral nos conflitos armados. Está a entrar em todo o ciclo da guerra, a comprimir o tempo de decisão, a tornar mais opacos os processos de comando e controlo e a criar um novo problema político e jurídico: enquanto os Estados tentam acompanhar a velocidade da tecnologia, as grandes empresas privadas ganham peso real sobre decisões que antes pertenciam quase em exclusivo aos Estados.

Esta foi a linha de força do primeiro painel da 7.ª Talk .IA, organizado pelo ECO no âmbito de uma parceria entre o .IA e o eRadar, no qual o contra-almirante António Gameiro Marques (ex-diretor-geral do Gabinete Nacional de Segurança), Pedro Lomba (advogado e sócio da PLMJ) e Carlos Manuel de Oliveira (Humantech AI Researcher) discutiram a forma como a IA está a mudar o setor da Defesa e o equilíbrio de poderes. A iniciativa decorreu nesta segunda-feira, 30 de março.

No arranque do debate, António Gameiro Marques resumiu a mudança de paradigma numa frase simples: “A IA é utilizada em todo o ciclo do conflito.” Para o ex-diretor do Gabinete Nacional de Segurança, a transformação é profunda porque a tecnologia entrou já não apenas na execução, mas também no planeamento, na recolha e tratamento de informação e na própria decisão.

As forças armadas, lembrou, operam segundo o ciclo de Boyd — “observação, orientação, decisão e ação”, definido nos anos 70 pelo Coronel da Força Aérea americana John Boyd e é precisamente esse ciclo que está a ser comprimido. “Há cada vez menos pessoas no ciclo”, disse, acrescentando que o ponto crítico continua a ser o momento da orientação, quando se tenta dar sentido ao que foi observado e transformá-lo em decisão operacional.

O problema, explicou, é que a velocidade a que os sistemas processam informação está a tornar cada vez mais ilusória a ideia de que o humano continua a controlar o processo. “Pode haver a ilusão do man in the loop”, afirmou. “Só que aquilo acontece tão rápido, quando nós queremos ver, já não percebemos o que é que aconteceu, porque já houve milhares de ciclos entretanto. (…) E a partir daí, o estarmos in the loop, no ciclo, é apenas fictício.”

A mesma ideia foi reforçada por Pedro Lomba, sócio da PLMJ, quando sublinhou que a compressão do tempo “torna muito difícil (…) o exercício do julgamento e da deliberação humana”. O ponto comum entre ambos foi claro: a IA não está apenas a tornar a guerra mais rápida. Está também a reduzir o espaço efetivo da intervenção humana.

Mas a aceleração do processo decisório não significa necessariamente mais segurança. Pelo contrário. Carlos Manuel de Oliveira foi taxativo neste ponto: “Eu acho que estamos mais vulneráveis.”

O investigador argumentou que a adoção de IA na defesa criou um novo conjunto de fragilidades e dividiu-as em três planos. O primeiro é o material ou físico, ligado “à proliferação de armas e da escalada cada vez maior da procura deste tipo de armas autónomas”. O segundo é o cibernético, que inclui ataques informáticos, desinformação e data poisoning — a possibilidade de um adversário interferir nos sistemas de IA, adulterar os dados e “alterar completamente as regras do jogo, alterar os alvos”. O terceiro é ético, social e político: a ausência de regras claras, a incerteza quanto à responsabilidade e a dificuldade em travar usos abusivos da tecnologia.

Gameiro Marques acrescentou um elemento que ajuda a perceber por que razão o risco aumenta à medida que a IA ganha protagonismo: a saturação cognitiva. “As pessoas que estão em operações (…) recebem milhares de fontes de informação. E esses milhares de fontes de informação saturam a capacidade cognitiva da pessoa”, disse. A tecnologia amplifica a capacidade humana de tratar dados, mas também pode afastar o decisor do processo ao ponto de o controlo se tornar meramente formal — “nós não estarmos no loop e nem conseguirmos estar no loop, porque aquilo calcula a uma velocidade que é absolutamente estonteante. É isso que não pode ser”, defendeu o militar.

António Gameiro Marques, ex-diretor-geral do Gabinete Nacional de SegurançaHugo Amaral/ECO

“Estamos no pior período possível” para estabelecer regras na Defesa

Se a guerra está a acelerar e a tornar-se mais opaca, a pergunta seguinte é inevitável: quem a regula? Ora, para Pedro Lomba, “estamos no pior período possível para acertar internacionalmente regras sobre a utilização de IA na defesa”, afirmou o advogado. E a razão é dupla. Por um lado, porque há conflitos em curso e “nenhum Estado quer vincular-se a regras” que possam reduzir a sua margem estratégica. Por outro, porque existe “uma grande fragilidade das instituições multilaterais”. O momento seria o mais importante para definir limites, mas é simultaneamente o mais frágil para que esses limites possam emergir.

O próprio conceito de “controlo humano significativo”, tantas vezes invocado no debate sobre armas autónomas, permanece insuficientemente definido. “Não existe no plano jurídico, do meu conhecimento”, disse Lomba. E isso agrava um problema estrutural: “Os grandes princípios do direito internacional humanitário foram pensados para cadeias humanas claras, legíveis e não funcionam para aqui”, resumiu.

O investigador Carlos Manuel de Oliveira foi na mesma direção, descrevendo o cenário atual como “um vácuo legislativo” que pode abrir espaço a situações “mais arriscadas do que anteriormente”.

Estamos no pior período possível para acertar internacionalmente regras sobre a utilização de IA na defesa.

Pedro Lomba

Advogado e sócio da PLMJ

Sistemas militares ‘escapam’ ao AI Act

A Europa surge neste debate como um caso especialmente paradoxal, destacou no debate o sócio da PLMJ: “O direito europeu fez uma coisa curiosíssima: quando mais se precisava que a União Europeia regulasse a IA na defesa, excluiu-a.”

“No continente que mais fez até agora para regular a IA, quando chegámos à defesa, a União Europeia disse ‘eu não consigo, eu não posso, porque há uma cláusula de segurança nacional, porque esta exceção é controversa, porque o Conselho pede unanimidade dos Estados-membros e eu não consigo pôr estes Estados todos de acordo’… Este é verdadeiramente o paradoxo com que estamos confrontados. Não acho que seja um paradoxo nada fácil de resolver”, criticou e resumiu Pedro Lomba.

Pedro Lomba, sócio da PLMJHugo Amaral/ECO

Foi com este pano de fundo que entrou em cena um dos temas mais politicamente difíceis do painel: a deslocação de poder da mão dos Estados para as grandes tecnológicas. O caso da Anthropic contra o Pentágono serviu de exemplo concreto para essa disputa. Para Pedro Lomba, o conflito diz respeito, no fundo, a quem tem a decisão última sobre a utilização militar da IA. “É uma luta entre quem controla a IA”, afirmou. “Nesse sentido, é uma luta de soberania.”

António Gameiro Marques foi mais longe na leitura: Certamente aqui na sala todos estaremos de acordo com as motivações da Anthropic. Mas, no fundo, vejam o que se passou: foi alguém, um setor privado, uma empresa privada, em que o board foi eleito lá pelos sócios, que contestou, que confrontou um governo democraticamente eleito. Esta é a realidade. Tal como aqui há uns anos, no primeiro mandato do senhor Donald Trump, a rede X, se bem se lembram, decidiu bani-lo. Isso chama-se o quê? Censura! Mas aquilo é uma empresa privada que tomou uma decisão que a maior parte das pessoas concordam.” Daí, concluiu: “Os modelos democráticos como nós os temos, estão a soçobrar em relação às Big Techs.”

Os modelos democráticos como nós os temos, estão a soçobrar em relação às Big Techs.

António Gameiro Marques

Ex-diretor-geral do Gabinete Nacional de Segurança

Carlos Manuel de Oliveira reforçou essa ideia com exemplos mais concretos. “Muitas empresas tecnológicas estão praticamente a ter um poder efetivo sobre a guerra e sobre a paz”, afirmou, lembrando o impacto que teve a decisão de Elon Musk de desligar o serviço de internet por satélite da Starlink durante a contraofensiva da Ucrânia contra a Rússia. O argumento é que, à medida que a guerra depende mais de software, conectividade, cloud, dados e modelos de IA, o poder sobre o conflito deixa de estar apenas nas mãos dos Estados e passa também para empresas que controlam infraestrutura, plataformas e serviços essenciais. “Podemos criar uma situação que é a privatização da guerra”, advertiu o investigador.

Carlos Manuel de Oliveira, Humantech AI ResearcherHugo Amaral/ECO

Se a tecnologia acelera a decisão e distribui o poder por mais atores, a questão da responsabilidade torna-se ainda mais difícil. Pedro Lomba insistiu que, antes de discutir proibições absolutas ou tratados internacionais, será preciso construir mecanismos de responsabilização que permitam perceber o que aconteceu, com que dados, segundo que critérios e em que momento. “Há várias variáveis que têm que ser definidas”, disse, enumerando algumas: “Quais são as utilizações previsíveis daquele sistema? Que informação é que aquele sistema recolhe sobre os alvos? O que é que aquele sistema deixa em termos de dados que permitam a rastreabilidade pós-decisão?” Sem esses elementos, o problema da responsabilidade dissolve-se.

Podemos criar uma situação que é a privatização da guerra.

Carlos Manuel de Oliveira

Humantech AI Researcher

Gameiro Marques sugeriu uma pista prática para lidar com a opacidade: usar sistemas para verificar sistemas. Recorreu ao exemplo da aviação comercial, onde um Airbus A350 integra sistemas construídos por equipas distintas que se verificam mutuamente. “Estão-se permanentemente a verificar uns aos outros”, disse. “Então porquê é que não se desenvolve (…) um ser de silício, um IA, que verifica se o outro está ou não está a fazer asneiras?” A lógica é simples: se a IA opera a uma velocidade que o humano já não consegue acompanhar, talvez parte da resposta passe por mecanismos automáticos de controlo técnico, capazes de competir com a mesma velocidade.

Carlos Manuel de Oliveira não excluiu essa via, embora com cautelas: “Controlo humano é possível desde que haja vontade política e controlos técnicos são passíveis de ser feitos com as limitações que existem da opacidade das aplicações.”

A 7.ª Talk .IA olhou para o setor da Defesa em parceria com o eRadarHugo Amaral/ECO

Formação em IA “ainda não começou”

Nenhum dos intervenientes sugeriu que a evolução tecnológica possa ou deva ser travada. A solução, na leitura comum do painel, está em reduzir o fosso entre o que a tecnologia já permite e a capacidade institucional, jurídica e humana de a enquadrar. “Como é que fazemos? Com formação e com regulação”, disse António Gameiro Marques. E avisou que, no caso da IA, a primeira ainda está longe de acompanhar a segunda: “Na IA, formação… acho que ainda não começou.”

Pedro Lomba puxou a discussão para outro plano estratégico, o da capacidade própria. “O tema das infraestruturas de computação é um tema absolutamente vital para o futuro”, afirmou, antecipando que essa será uma das grandes discussões dos próximos dez anos.

No fim, o painel regressou à dimensão política do problema. O ponto já não é apenas saber se a IA é útil, inevitável ou perigosa, mas perceber quem decide, em que condições e com que mecanismos de escrutínio. Para o contra-almirante, o tema exige debate público e exigência democrática. “Tem que haver [discussão sobre isto]. Porque senão nós estamos a entregar a outros o nosso destino.” Carlos Manuel de Oliveira veiculou a mesma ideia por outro caminho: as empresas tecnológicas “têm poder político, inclusivamente forte, confrontado com o poder político das administrações”.

Visto em conjunto, o debate deixou uma conclusão central: o uso de IA na defesa está a acelerar e a opacificar a guerra, a esvaziar o controlo humano, a apanhar o direito desprevenido e a deslocar poder dos Estados para as grandes tecnológicas. E se os Estados não conseguirem responder com regras, capacidade técnica e supervisão efetiva, arriscam perder não apenas o controlo sobre a tecnologia, mas também sobre decisões de guerra e paz.

Assine o ECO Premium

No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.

De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.

Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.

Comentários ({{ total }})

IA acelera a guerra, esvazia o controlo humano e dá poder às ‘Big Tech’

Respostas a {{ screenParentAuthor }} ({{ totalReplies }})

{{ noCommentsLabel }}

Ainda ninguém comentou este artigo.

Promova a discussão dando a sua opinião