O grande teste à Anthropic
A Anthropic enfrenta um dos momentos mais críticos da sua história, entre um confronto inédito com o Governo dos EUA e falhas internas de segurança que expõem fragilidades da empresa.
Fundada por ex-trabalhadores da OpenAI em 2021, a Anthropic vive um dos períodos mais conturbados da sua curta história. Castigada pelo Governo dos Estados Unidos, a criadora do popular chatbot Claude decidiu avançar em tribunal para fazer valer os seus direitos. E pôde, nos últimos dias, declarar uma ‘semi-vitória’, após vencer uma providência cautelar contra o Pentágono norte-americano.
O conflito teve origem na recusa da Anthropic em permitir o uso dos seus modelos de inteligência artificial (IA) em sistemas de armas autónomas e na vigilância em massa dos cidadãos americanos. Consequentemente, a empresa perdeu um contrato de 200 milhões de dólares com o Departamento de Guerra (antigo Departamento de Defesa) e foi incluída numa ‘lista negra’ do Pentágono, que proíbe certos organismos públicos de utilizarem os seus serviços.
É uma guerra pelo controlo da IA. E foi esta medida punitiva e desproporcional que foi devidamente suspensa pela Justiça, enquanto decorre um processo intentado pela empresa contra o Governo de Donald Trump. O caso poderá tornar-se numa referência sobre o uso deste tipo de tecnologias no setor da Defesa. Um tema que, de resto, esteve em discussão esta semana na 7.ª Talk .IA.
Mas a Anthropic continua a navegar num mar revolto, pois a celebração desta decisão favorável – a juíza sinalizou a sua inclinação em concordar com os argumentos da empresa – não durou muito tempo. Esta semana, parte do código-fonte do serviço de programação Claude Code foi inadvertidamente exposta durante uma atualização. Um erro grave da única responsabilidade da Anthropic.
Mais de meio milhão de linhas de código e 1.900 ficheiros que deveriam ser confidenciais foram comprometidos por esta falha, abrindo a porta a violações da propriedade intelectual da empresa.
A este caso insólito junta-se outra falha grave de segurança tornada pública há poucos dias: a Anthropic foi ‘apanhada’ a guardar informação interna confidencial num sistema acessível ao público – incluindo rascunhos de comunicados com referências a um novo modelo de IA chamado “Mythos” ou “Capivara”.
Aquela que podia ser uma semana de festa para a empresa trouxe, afinal, mais noites mal dormidas. Mas são situações como estas que mostram que o futuro da IA não dependerá só de linhas de código. Depende também, e cada vez mais, da confiança. E, no limite, das decisões dos tribunais.
Nota: Este texto é parte integrante da última edição da Newsletter .IA, publicada quinzenalmente à quinta-feira. Subscreva aqui.
Assine o ECO Premium
No momento em que a informação é mais importante do que nunca, apoie o jornalismo independente e rigoroso.
De que forma? Assine o ECO Premium e tenha acesso a notícias exclusivas, à opinião que conta, às reportagens e especiais que mostram o outro lado da história.
Esta assinatura é uma forma de apoiar o ECO e os seus jornalistas. A nossa contrapartida é o jornalismo independente, rigoroso e credível.
Comentários ({{ total }})
O grande teste à Anthropic
{{ noCommentsLabel }}