Tecnologia

Anthropic vai à Justiça contra Trump após ser banida do Pentágono

Empresa abriu dois processos federais para reverter a classificação de 'risco à cadeia de suprimentos' imposta pelo Departamento de Defesa

A Anthropic abriu dois processos judiciais nesta segunda-feira (9) para reverter a decisão do Pentágono de classificá-la como “risco à cadeia de suprimentos” — punição aplicada após a empresa recusar o uso irrestrito do seu chatbot, o Claude, em operações de guerra.

As ações foram protocoladas simultaneamente: uma em tribunal federal na Califórnia e outra no tribunal federal de apelações de Washington D.C., cada uma contestando aspectos distintos das medidas adotadas pelo Departamento de Defesa americano.

A disputa com o Pentágono

A Anthropic afirmou que buscou restringir o uso de sua tecnologia em aplicações militares de alto risco, o que desencadeou uma disputa incomumente pública com o governo. O secretário de Defesa Pete Hegseth e outras autoridades exigiram que a empresa aceitasse “todos os usos legais” do Claude — incluindo operações de combate — sob ameaça de punições.

Diante da recusa, o Pentágono designou formalmente a Anthropic como risco à cadeia de suprimentos. A medida impede a empresa de executar contratos de defesa por meio de uma autoridade criada originalmente para barrar adversários estrangeiros de comprometer sistemas de segurança nacional. Segundo relatos, é a primeira vez que o governo federal aplica essa classificação contra uma empresa americana.

O presidente Donald Trump foi além: afirmou que ordenará agências federais a encerrarem o uso do Claude. Ainda assim, concedeu ao Pentágono seis meses para eliminar gradualmente o produto, que está profundamente integrado a sistemas militares classificados — incluindo os utilizados na guerra contra o Irã.

O impasse que culminou nas ações judiciais se arrastava há semanas: o Pentágono havia ameaçado a designação caso a Anthropic não aceitasse “todos os usos legais” do Claude, incluindo operações de combate contra o Irã.

O peso financeiro da decisão

Mesmo enquanto contesta as medidas do Pentágono, a Anthropic tem trabalhado para convencer empresas e outros órgãos governamentais de que a penalidade se limita a contratantes militares que usam o Claude em trabalhos para o Departamento de Defesa.

Deixar essa distinção clara é vital para a empresa: a maior parte da receita projetada de US$ 14 bilhões em 2026 vem justamente de companhias e agências governamentais que utilizam o Claude para programação e outras tarefas. Mais de 500 clientes pagam ao menos US$ 1 milhão por ano pelo serviço, segundo avaliações que situam a Anthropic em US$ 380 bilhões.

O episódio tem reverberado além dos limites da empresa. O caso acelerou uma mudança mais ampla: o governo americano prepara regras para exigir de qualquer empresa de IA uma licença irrevogável sobre seus modelos como condição para fechar contratos federais.

escrito com o apoio da inteligência artificial
este texto foi gerado por IA sob curadoria da equipe do Tropiquim.
todos os fatos foram verificados com rigor.
Leia mais

Ferido nos bombardeios, Mojtaba Khamenei some após assumir liderança do Irã

Trump manda navios ignorar o bloqueio iraniano no Estreito de Ormuz

Quaest: 48% veem economia pior do que há um ano, e pessimismo avança em março

Pesquisa aponta violência como maior preocupação de 27% dos brasileiros