Tecnologia

Anthropic vai à Justiça contra Trump após ser banida do Pentágono

Empresa abriu dois processos federais para reverter a classificação de 'risco à cadeia de suprimentos' imposta pelo Departamento de Defesa

A Anthropic abriu dois processos judiciais nesta segunda-feira (9) para reverter a decisão do Pentágono de classificá-la como “risco à cadeia de suprimentos” — punição aplicada após a empresa recusar o uso irrestrito do seu chatbot, o Claude, em operações de guerra.

As ações foram protocoladas simultaneamente: uma em tribunal federal na Califórnia e outra no tribunal federal de apelações de Washington D.C., cada uma contestando aspectos distintos das medidas adotadas pelo Departamento de Defesa americano.

A disputa com o Pentágono

A Anthropic afirmou que buscou restringir o uso de sua tecnologia em aplicações militares de alto risco, o que desencadeou uma disputa incomumente pública com o governo. O secretário de Defesa Pete Hegseth e outras autoridades exigiram que a empresa aceitasse “todos os usos legais” do Claude — incluindo operações de combate — sob ameaça de punições.

Diante da recusa, o Pentágono designou formalmente a Anthropic como risco à cadeia de suprimentos. A medida impede a empresa de executar contratos de defesa por meio de uma autoridade criada originalmente para barrar adversários estrangeiros de comprometer sistemas de segurança nacional. Segundo relatos, é a primeira vez que o governo federal aplica essa classificação contra uma empresa americana.

O presidente Donald Trump foi além: afirmou que ordenará agências federais a encerrarem o uso do Claude. Ainda assim, concedeu ao Pentágono seis meses para eliminar gradualmente o produto, que está profundamente integrado a sistemas militares classificados — incluindo os utilizados na guerra contra o Irã.

O impasse que culminou nas ações judiciais se arrastava há semanas: o Pentágono havia ameaçado a designação caso a Anthropic não aceitasse “todos os usos legais” do Claude, incluindo operações de combate contra o Irã.

O peso financeiro da decisão

Mesmo enquanto contesta as medidas do Pentágono, a Anthropic tem trabalhado para convencer empresas e outros órgãos governamentais de que a penalidade se limita a contratantes militares que usam o Claude em trabalhos para o Departamento de Defesa.

Deixar essa distinção clara é vital para a empresa: a maior parte da receita projetada de US$ 14 bilhões em 2026 vem justamente de companhias e agências governamentais que utilizam o Claude para programação e outras tarefas. Mais de 500 clientes pagam ao menos US$ 1 milhão por ano pelo serviço, segundo avaliações que situam a Anthropic em US$ 380 bilhões.

O episódio tem reverberado além dos limites da empresa. O caso acelerou uma mudança mais ampla: o governo americano prepara regras para exigir de qualquer empresa de IA uma licença irrevogável sobre seus modelos como condição para fechar contratos federais.

escrito com o apoio da inteligência artificial
este texto foi gerado por IA sob curadoria da equipe do Tropiquim.
todos os fatos foram verificados com rigor.
Leia mais

Ipsos-Ipec: Lula tem pior nota em gastos e no combate à inflação

Toffoli se declara suspeito e abandona pedido da CPI do Banco Master

Inmet emite dois alertas vermelhos de chuva para SP, MG, RJ e PR

Teerã enterra líderes da guerra enquanto Irã ataca o Estreito de Ormuz