O Departamento de Justiça dos Estados Unidos confirmou, nesta quinta-feira (2), que vai recorrer da decisão de um tribunal da Califórnia que bloqueou punições do governo federal contra a Anthropic, criadora do assistente de IA Claude. Os advogados têm até 30 de abril para protocolar os argumentos.
A disputa gira em torno do uso irrestrito de inteligência artificial para fins militares. A Anthropic impõe limites à adoção de suas ferramentas em sistemas de vigilância em massa e armamentos autônomos — posição que o governo Trump passou a tratar como ameaça à segurança nacional.
Na semana passada, a Justiça já havia impedido o Pentágono de classificar a Anthropic como risco à cadeia de fornecimentos — designação normalmente reservada a empresas de países adversários dos EUA. O mesmo tribunal derrubou também a ordem do presidente Donald Trump que proibia agências federais de usar os produtos da empresa.
A juíza Rita Lin, responsável pelas duas decisões, afirmou que as “amplas medidas punitivas” pareciam arbitrárias e poderiam “paralisar a Anthropic”. Em linguagem incomum para uma decisão judicial, ela recorreu ao autor de distopias George Orwell: “Nada na legislação vigente apoia a noção orwelliana de que uma empresa americana possa ser rotulada como potencial adversária por expressar discordância com o governo.”
Lin deixou claro, porém, que a decisão não obriga os EUA a usarem os produtos da Anthropic nem os impede de migrar para outros fornecedores de IA.
A batalha judicial tem origem na semana anterior, quando a Anthropic abriu dois processos simultâneos — na Califórnia e em Washington D.C. — para reverter a classificação do Pentágono que a tratava como risco à cadeia de suprimentos. Os detalhes das ações e os fundamentos jurídicos utilizados pela empresa foram detalhados pelo Tropiquim.
Apesar da ordem judicial, o The Wall Street Journal revelou que os EUA utilizaram o Claude em operações militares contra o Irã. O assistente teria ajudado o Exército americano a fazer avaliações de inteligência, identificar alvos e simular cenários de batalha.
A reação do Pentágono foi imediata e ríspida. Um alto funcionário da pasta chamou a decisão de “vergonha”. O subsecretário de Guerra Emir Michael afirmou que a medida “prejudicaria a plena capacidade” do secretário Pete Hegseth de “conduzir operações militares com os parceiros que escolher”.
O impasse tem raízes em negociações frustradas: semanas antes, a Anthropic havia retomado conversas com Washington sobre o uso militar do Claude, mas o entendimento não avançou e culminou nas punições agora contestadas na Justiça. O Tropiquim acompanhou o histórico dessas tratativas desde o início.
A disputa também acelerou mudanças mais amplas na política americana: o governo passou a exigir que toda empresa de IA conceda uma licença irrevogável para uso irrestrito de seus sistemas pelas forças federais. A nova exigência e seus impactos para o setor foram analisados pelo Tropiquim.
Apoio à Anthropic
Diversas entidades apresentaram pareceres jurídicos em favor da empresa. A lista inclui a Microsoft, associações comerciais do setor de tecnologia, trabalhadores da área, líderes militares aposentados e até um grupo de teólogos católicos — sinal de que o caso ultrapassou os limites da disputa corporativa e ganhou dimensão política mais ampla.
