Tecnologia

EUA anunciam recurso contra decisão que protegeu Anthropic de punições federais

DOJ tem até 30 de abril para apresentar argumentos; Claude foi usado em operações militares contra o Irã mesmo durante a disputa
Recurso do governo americano contra Anthropic por seu uso militar contra o Irã

O Departamento de Justiça dos Estados Unidos confirmou, nesta quinta-feira (2), que vai recorrer da decisão de um tribunal da Califórnia que bloqueou punições do governo federal contra a Anthropic, criadora do assistente de IA Claude. Os advogados têm até 30 de abril para protocolar os argumentos.

A disputa gira em torno do uso irrestrito de inteligência artificial para fins militares. A Anthropic impõe limites à adoção de suas ferramentas em sistemas de vigilância em massa e armamentos autônomos — posição que o governo Trump passou a tratar como ameaça à segurança nacional.

Na semana passada, a Justiça já havia impedido o Pentágono de classificar a Anthropic como risco à cadeia de fornecimentos — designação normalmente reservada a empresas de países adversários dos EUA. O mesmo tribunal derrubou também a ordem do presidente Donald Trump que proibia agências federais de usar os produtos da empresa.

A juíza Rita Lin, responsável pelas duas decisões, afirmou que as “amplas medidas punitivas” pareciam arbitrárias e poderiam “paralisar a Anthropic”. Em linguagem incomum para uma decisão judicial, ela recorreu ao autor de distopias George Orwell: “Nada na legislação vigente apoia a noção orwelliana de que uma empresa americana possa ser rotulada como potencial adversária por expressar discordância com o governo.”

Lin deixou claro, porém, que a decisão não obriga os EUA a usarem os produtos da Anthropic nem os impede de migrar para outros fornecedores de IA.

A batalha judicial tem origem na semana anterior, quando a Anthropic abriu dois processos simultâneos — na Califórnia e em Washington D.C. — para reverter a classificação do Pentágono que a tratava como risco à cadeia de suprimentos. Os detalhes das ações e os fundamentos jurídicos utilizados pela empresa foram detalhados pelo Tropiquim.

Apesar da ordem judicial, o The Wall Street Journal revelou que os EUA utilizaram o Claude em operações militares contra o Irã. O assistente teria ajudado o Exército americano a fazer avaliações de inteligência, identificar alvos e simular cenários de batalha.

A reação do Pentágono foi imediata e ríspida. Um alto funcionário da pasta chamou a decisão de “vergonha”. O subsecretário de Guerra Emir Michael afirmou que a medida “prejudicaria a plena capacidade” do secretário Pete Hegseth de “conduzir operações militares com os parceiros que escolher”.

O impasse tem raízes em negociações frustradas: semanas antes, a Anthropic havia retomado conversas com Washington sobre o uso militar do Claude, mas o entendimento não avançou e culminou nas punições agora contestadas na Justiça. O Tropiquim acompanhou o histórico dessas tratativas desde o início.

A disputa também acelerou mudanças mais amplas na política americana: o governo passou a exigir que toda empresa de IA conceda uma licença irrevogável para uso irrestrito de seus sistemas pelas forças federais. A nova exigência e seus impactos para o setor foram analisados pelo Tropiquim.

Apoio à Anthropic

Diversas entidades apresentaram pareceres jurídicos em favor da empresa. A lista inclui a Microsoft, associações comerciais do setor de tecnologia, trabalhadores da área, líderes militares aposentados e até um grupo de teólogos católicos — sinal de que o caso ultrapassou os limites da disputa corporativa e ganhou dimensão política mais ampla.

escrito com o apoio da inteligência artificial
este texto foi gerado por IA sob curadoria da equipe do Tropiquim.
todos os fatos foram verificados com rigor.
Leia mais

NYT aponta britânico Adam Back como criador do Bitcoin; ele nega

Câmara eleva multa por adulteração de combustível a até R$ 4,7 milhões

Grécia proíbe redes sociais para menores de 15 anos a partir de 2027

Moraes leva ao plenário ação que pode redefinir regras da delação premiada