IA, temos um problema?

Indústria de IA está a confrontar-se com as finas linhas vermelhas que não quer ou está disposta a cruzar no que toca ao uso da sua tecnologia em situação de guerra.

No meio do caos em que o ataque dos EUA e Israel ao Irão está a lançar o Médio Oriente e a economia mundial, o braço de ferro entre a americana Anthropic e o Pentágono mais parece uma nota de rodapé na História. Mas não é. O confronto entre a empresa de inteligência artificial (IA) em torno dos limites de utilização da tecnologia por trás do Claude sem restrições — o Pentágono chama-lhe “qualquer uso legal” — pelo Departamento de Guerra norte-americano está a obrigar a indústria (mas não só) a confrontar-se com as finas linhas vermelhas que não quer ou está disposta a cruzar no que toca ao uso da sua tecnologia em situação de guerra.

Viveu-se esse tema com os drones — e as listas de países com quem as empresas não trabalhavam —, mas parece que as linhas do que é ou não aceitável estão a ficar cada vez mais ténues. Os tempos claramente mudaram desde a altura em que o Google tinha como lema “Don’t be evil” (“Não seja mau”) — uma espécie de código de conduta informal que ‘caiu por terra’ quando os trabalhadores protestaram pelo facto de a tecnológica estar a fornecer ao Pentágono IA para análise de imagens de vigilância de drones, o Project Maven (2017-2018).

Não só hoje a tecnologia é exponencialmente mais poderosa, como está a instalar-se de forma transversal nos esforços de defesa dos países, acelerando a identificação de alvos e a capacidade de resposta. Em quatro dias, o Pentágono diz ter atacado 2.000 alvos no Irão. O mesmo número de alvos atingidos em seis meses durante a campanha contra o Isis, no Iraque e Síria, como relata o Financial Times.

O tema aqui é outro. É quando o Estado (seja ele qual for) quer ter acesso sem limites à tecnologia criada por privados — e no caso da IA falamos essencialmente de big tech privadas — e que recursos tem uma empresa que quer impor limites ao uso dos seus modelos.

E as tecnológicas parecem fazer fila para trabalhar no setor. O Google vai colocar o modelo do Gemini ao dispor dos militares dando-lhes capacidade de criar Agentes IA para projetos não classificados; a OpenAI trabalha com o Pentágono e quer colocar os seus modelos ao serviço da NATO; a Palantir é peça relevante na mais recente incursão militar americana no Médio Oriente. Casos de uso não faltam.

O tema aqui é outro. É quando o Estado (seja ele qual for) quer ter acesso sem limites à tecnologia criada por privados — e no caso da IA falamos essencialmente de big tech privadas — e que recursos tem uma empresa que quer impor limites ao uso dos seus modelos com receios, por exemplo, de que isso origine potenciais abusos para vigilância massiva de pessoas (inclusive dos seus próprios cidadãos) ou o seu uso sem vigilância humana para tomar decisões sobre o ‘sim ou não’ de um ataque. O último episódio deste confronto foi o processo movido pela companhia ao Pentágono depois de ter sido banida da sua lista de fornecedores.

Adolfo Mesquita Nunes colocou (e bem) o dedo na ferida. “É normal que os Estados procurem em matérias de defesa e de soberania impor um conjunto de regras às empresas privadas”; agora “o que não é desejável que aconteça é que isto seja feito através de decisões casuísticas, sem enquadramento, muitas das vezes, ou aparentemente, sem grande coerência e sem grande critério”, disse o sócio da Pérez Llorca à Lusa.

Nem na Europa — o continente da regulação — o tema da IA na defesa está regulado e em projetos de uso duplo — a nova buzz word no setor — “a interseção com RGPD e direitos fundamentais adiciona complexidade, sem oferecer um quadro coerente especificamente desenhado para IA militar”, lembra o jurista, na opinião que publicamos no eRadar.

“Empresas europeias que trabalhem com defesa precisam de arquitetura de governação robusta desde o desenho contratual até ao enforcement técnico”, disse. “A resposta europeia exige clareza doutrinária, capacidade industrial e modelos contratuais que antecipem conflitos antes de estes se tornarem crises públicas.”

Assine o ECO Premium

No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.

De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.

Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.

Comentários ({{ total }})

IA, temos um problema?

Respostas a {{ screenParentAuthor }} ({{ totalReplies }})

{{ noCommentsLabel }}

Ainda ninguém comentou este artigo.

Promova a discussão dando a sua opinião