A Anthropic abriu dois processos judiciais nesta segunda-feira (9) para reverter a decisão do Pentágono de classificá-la como “risco à cadeia de suprimentos” — punição aplicada após a empresa recusar o uso irrestrito do seu chatbot, o Claude, em operações de guerra.
As ações foram protocoladas simultaneamente: uma em tribunal federal na Califórnia e outra no tribunal federal de apelações de Washington D.C., cada uma contestando aspectos distintos das medidas adotadas pelo Departamento de Defesa americano.
A disputa com o Pentágono
A Anthropic afirmou que buscou restringir o uso de sua tecnologia em aplicações militares de alto risco, o que desencadeou uma disputa incomumente pública com o governo. O secretário de Defesa Pete Hegseth e outras autoridades exigiram que a empresa aceitasse “todos os usos legais” do Claude — incluindo operações de combate — sob ameaça de punições.
Diante da recusa, o Pentágono designou formalmente a Anthropic como risco à cadeia de suprimentos. A medida impede a empresa de executar contratos de defesa por meio de uma autoridade criada originalmente para barrar adversários estrangeiros de comprometer sistemas de segurança nacional. Segundo relatos, é a primeira vez que o governo federal aplica essa classificação contra uma empresa americana.
O presidente Donald Trump foi além: afirmou que ordenará agências federais a encerrarem o uso do Claude. Ainda assim, concedeu ao Pentágono seis meses para eliminar gradualmente o produto, que está profundamente integrado a sistemas militares classificados — incluindo os utilizados na guerra contra o Irã.
O impasse que culminou nas ações judiciais se arrastava há semanas: o Pentágono havia ameaçado a designação caso a Anthropic não aceitasse “todos os usos legais” do Claude, incluindo operações de combate contra o Irã.
O peso financeiro da decisão
Mesmo enquanto contesta as medidas do Pentágono, a Anthropic tem trabalhado para convencer empresas e outros órgãos governamentais de que a penalidade se limita a contratantes militares que usam o Claude em trabalhos para o Departamento de Defesa.
Deixar essa distinção clara é vital para a empresa: a maior parte da receita projetada de US$ 14 bilhões em 2026 vem justamente de companhias e agências governamentais que utilizam o Claude para programação e outras tarefas. Mais de 500 clientes pagam ao menos US$ 1 milhão por ano pelo serviço, segundo avaliações que situam a Anthropic em US$ 380 bilhões.
O episódio tem reverberado além dos limites da empresa. O caso acelerou uma mudança mais ampla: o governo americano prepara regras para exigir de qualquer empresa de IA uma licença irrevogável sobre seus modelos como condição para fechar contratos federais.